An Open-Source Chatbot Made With Rasa
Chatbots je uradno dosegel komercialno sceno leta 2016. Slack ima zdaj shrambo chatbotov za poklicnega profesionalca, Facebook je pravkar izdal svojo platformo Messenger za 'em' (čeprav se še vedno uči, kaj naj z njimi počnejo), Microsoft pa je imel celo kontroverzo. s svojim rasističnim Tay botom. Zdaj Google vstopa v segment in upa, da bo popravil pretekle napake, tako da bo ustvaril odprt vir.
Google je danes objavil, da svoje raziskave o dveh ločenih jezikovnih programih odprtokodne za razvijalce. Programi, imenovani SyntaxNet in Parsey McParseface (očitno igra na britanskem znanstvenem plovilu, ki jo je internet želel poimenovati Boaty McBoatface), sami po sebi niso klepetalnice, ampak bodo zagotovili jezikovne spretnosti, potrebne za bolj inteligentne klepete.
Po njihovih imenih Parsey McParseface razčleni angleške stavke za njihovo strukturo, SyntaxNet pa pripiše oznako za vsak del govora v stavku in jih poskuša združiti. V tandemu lahko oba programa razlagata bolj zapletene stavčne strukture - za razliko od botra Tay, ki je v bistvu ponovil sovražni govor interneta.
Na primer, Google pravi, da je bilo za stroje vedno preprosto razčleniti stavek, kot je »Alice videl Boba«. Ampak s temi dvema programoma je lažje razumeti bolj zapletene besede - »Alice, ki je brala o SyntaxNet, je videla Boba v včeraj, na primer.
Google tudi opozarja, da so ljudje še posebej hitri in dobri pri razumevanju stavkov, ki temeljijo na kontekstu, medtem ko so stroji zelo dobesedni.
»Ni redko, če imajo zmerne dolžine - recimo 20 ali 30 besed - na stotine, tisoče ali celo na deset tisoče možnih skladenjskih struktur,« so zapisali raziskovalci v blogu. "Razčlenjevalnik naravnega jezika mora nekako preiskati vse te alternative in najti najbolj verjetno strukturo glede na kontekst."
Za stavek, kot je »Alice se je v njenem avtomobilu odpeljala po ulici«, morajo stroji dejavneje razvozlati, da govornik ne pomeni bolj nesmiselnega branja, da se ulica nahaja v Alicevem avtomobilu.
Mogoče lahko inženirji in razvijalci tega sveta vzamejo te platforme in spreminjajo klepetalnice v nekaj bolj inteligentnega, saj nas je večina tistih, ki smo jih videli doslej, užalili s svojimi hurty besedami ali njihovo nezmožnostjo natančno povedati vreme.
5 velikih vprašanj o Tay, Microsoft je neuspešno A.I. Twitter Chatbot
Ta teden je internet naredil kar je najbolje in dokazal, da je A.I. Tehnologija ni tako intuitivna kot človeško zaznavanje, ki uporablja ... rasizem. Tay, ki je pred kratkim izdal umetniško inteligentno klepetalnico Microsoft, je postal žrtev uporabnikovih trikov, ko so manipulirali in jo prepričali, da se bo odzvala na vprašanja, ki jih bo uporabil.
Microsoftov Tay Chatbot se je vrnil in si zaslužil, da živi večno
Microsoftova zloglasna brbljajka Tay se je kmalu vrnila v življenje v sredo zjutraj, nekaj dni po tem, ko je pustila vihar tweetsov, ki so ga njegovi programerji javno oproščali tako čudovite rasistične, antisemitske in ofenzivne. Tayova uspešnost na bis je bila skoraj tako močna, kot je bila njena zadnja številka. "Kajenje k ...
A.L.Ex A.I. Chatbot se uči, da je človek, tako da počne improvizirano komedijo
Dva računalniška znanstvenika sta usposobila A.I. biti čim bolj človeški, tako da naredimo improvizirane komedijske oddaje z njimi.