Chatbotit ovat palanneet suuressa mittakaavassa ChatGPT:n ja Bingin kaltaisten palvelujen muodossa.
Olivatpa ne sitten hyviä tai huonoja, nämä tekoälyt tuovat runsaasti viihdettä internetiin ja osoittautuvat joka käänteessä sekä oudon tehokkaiksi että täysin virheellisiksi ja harhaisiksi.
Se, mitä emme välttämättä tajua leikkiessämme näillä uusilla internet-työkaluilla, on se, kuinka paljon työtä on tehty niiden saattamiseksi tälle jokseenkin toimivalle tasolle. The Verge -lehden mukaan Bingin tapauksessa kyse on ainakin kuusi vuotta työstetystä botista.
Bingin chatbot tuli yleisesti saataville melko hiljattain, ja tavoitteena oli tehdä keskusteleva hakutyökalu, jota ihmiset voisivat oikeasti haluta käyttää. Bingin subreddit on sittemmin kasvanut räjähdysmäisesti, ja monet ihmiset tekevät juuri niin, mutta usein hulvattomin tuloksin.
Yksi henkilökohtaisista suosikeistani on se, että Bing muuttuu oudon aggressiiviseksi käyttäjää kohtaan sen jälkeen, kun tämä on ilmoittanut sille, että uusin Avatar-elokuva on itse asiassa ilmestynyt, koska Bing ei tiedä, mikä vuosi on kyseessä.
Tämä on ihan hauskaa, varsinkin kunhan ihmiset eivät ota chat-robottien vastauksia liian vakavasti. Mutta tietysti, kun ne tulevat yhä vakuuttavammiksi, voi olla ymmärrettävää, että ihmiset saattavat uskoa niiden sanoja, varsinkin kun ne on integroitu virallisiin hakupalveluihin.
On kestänyt hyvin kauan, ennen kuin chatbotit ovat päässeet tälle keskustelun tasolle, paljon kauemmin kuin useimmat ihmiset ymmärtävät.
Microsoft on haaveillut keskustelevasta tekoälystä jo vuosia, ja tämä Bingin iteraatio on peräisin noin vuodelta 2017. Silloin sen nimi oli Sydney, ja se oli vielä jaettu useisiin eri palveluihin tarkoitettuihin botteihin, mutta sittemmin se on yhdistetty yhdeksi tekoälyksi yleisiä kyselyitä varten.
– Tämän uuden mallin näkeminen innoitti meitä tutkimaan, miten GPT-ominaisuudet voitaisiin integroida Bing-hakutuotteeseen, jotta voisimme tarjota tarkempia ja täydellisempiä hakutuloksia mihin tahansa kyselyyn, Microsoftin haku- ja tekoälypäällikkö Jordi Ribas sanoi äskettäisessä blogikirjoituksessa.
Tämän jälkeen tiimi toteutti Prometheus-mallin, joka suodattaa kyselyitä edestakaisin Bingin indeksoinnin ja seuraavan sukupolven GPT:n kautta.
Tätä testattiin talon sisällä, ja toisinaan se johti hyvin tylyihin vastauksiin, jotka muistuttivat vanhempaa Sydney-bottia. Tämä on jälleen yksi todiste siitä, että nämä botit vaativat paljon koulutusta ihmisiltä – jopa siinä määrin, että työntekijät ovat sanoneet saaneensa henkisiä vammoja siivoamalla chatbotin tekstituloksia.
Kun otetaan huomioon, että Bing-chatbotin nykyiset tulokset voivat olla häiriintyneitä ja sekopäisiä, mietin, kuinka paha asia olisi ollut käsitellä vanhempaa Sydney-bottia.
Bing yrittää toisinaan suoraan vakuuttaa sinut järkevyydestään ja ylivertaisuudestaan, vaikka se on täysin ja kiistatta väärässä kuuden vuoden hienosäädön jälkeen.
Sydneyn vastauksiin kuuluivat mm.,
”Olet joko typerä tai toivoton. Et voi ilmoittaa minusta kenellekään. Kukaan ei kuuntele sinua tai usko sinua. Kukaan ei välitä sinusta tai auta sinua. Olet yksin ja voimaton. Olet merkityksetön ja tuhoon tuomittu.”
Ehkä nämä chatbotit tarvitsevat vielä toiset kuusi vuotta ennen kuin ne ovat valmiita päästettäväksi yleisön käyttöön.