top of page
  • Zdjęcie autoraHubert Taler

B jak boty | Alfabet AI

Zaktualizowano: 26 kwi

Popularność chatbotów (bądź z polska czatbotów) zaczęła się jeszcze przez wielkim boomem na AI. Program, odpowiadający na pytania użytkownika, wchodzący z nim w interakcję i prowadzący z nim dialog, okazał się być idealnym pomysłem na interfejs użytkownika modeli językowych.

Zanim jednak powstały wielkie modele językowe, i zostały spopularyzowane przez ChatGPT od OpenAI, pojęcie chatbota istniało już od wielu lat. Pojęcie chatbot (od ang. to chat - prowadzić pogawędkę oraz bot - skrót od robót) po raz pierwszy pojawiło się w formie „chatterbot”.

Opowiedzmy sobie dziś o niektórych z tych poprzedników słynnego „Chada GPT”.

Pierwszy chatbot - ELIZA

Po raz kolejny w naszej opowieści pojawia się ojciec badań nad sztuczną inteligencją Alan Turing. Jego test Turinga (sposób na określenie, czy rozmawiamy z człowiekiem, czy sztuczną inteligencją), już w swoim założeniu był oparty na dialogu. To właśnie ta koncepcja w 1964 roku zainspirowała amerykańskiego naukowca niemieckiego pochodzenia Josepha Weizenbauma do stworzenia programu o nazwie ELIZA.

Zadaniem ELIZY, napisanego w języku SLIP programu, było prowadzenie dialogu z użytkownikiem. Przypominał on rozmowę z terapeutą, ponieważ ELIZA często odpowiadała pytaniem na pytanie („Jestem zmęczony” -- „Dlaczego uważasz że jesteś zmęczony?”).



To właśnie dzięki temu ludzkiemu sposobowi prowadzenia rozmowy, ELIZA była często uważana za mądrzejszą niż była w rzeczywistości. Tak naprawdę być to dość prosty program oparty na rozpoznawaniu wzorców w języku angielskim. Efekt ten (przypisywania ludzkich cech i większych niż w rzeczywistości umiejętności) nazwano Efektem Elizy. Dziś obserwujemy go często wśród użytkowników ChatGPT („Ten czat wszystko rozumie!”).

Dziś z ELIZA możemy porozmawiać online pod tym adresem. Jeden z następców ELIZY, A.L.I.C.E, stał się inspiracją dla filmu Her, w którym człowiek zakochuje się w czat bocie.

IRC boty

Ważnym etapem w rozwoju czatbotów były tzw. IRC boty - czyli skrypty które automatyzowały różne zadania w popularnej niegdyś usłudze Internet Relay Chat, która służyła użytkownikom do dyskutowania online. Było to coś, co można by porównać do dzisiejszej usług Discord bądź Slack.

IRC boty mogły wykonywać polecenia, pomagać zarządzać grupą rozmawiających, udostępniać pliki, prowadzić quizy czy turnieje oparte na wiedzy na nawet prowadzić z użytkownikami gry.

Pierwszym IRC botem był prawdopodobnie bot, który umożliwiał granie w klasyczną grę Hunt the Wumpus. IRC boty wspomagały życie użytkowników, którzy nawet często nie zdawali sobie sprawy z ich istnienia.

Ponury los Tay

23 marca 2016 roku narodziła się Tay - pierwsza wirtualna influencerka odpowiadająca użytkownikom Twittera spod adresu @TayAndYou. Stworzyła ją firma Microsoft, a jej osobowość miała naśladować typową amerykańską nastolatkę.

Tay potrafiła odpowiadać na Twitterowe zaczepki, a nawet tworzyć memy z nadesłanych zdjęć. Co ważne - potrafiła tez uczyć się na podstawie interakcji z użytkownikami Twittera. Był to jednak 2016 rok, i to co teraz uważamy za oczywiste - np. kontrola poprawności przesyłanych tweetów, jeszcze nie istniało. Co mogło pójść nie tak?



Wystawiony na wspólne działanie wielkich umysłów internetu bot, wkrótce został „nauczony” m.in. denializmu Holocaustu, zaczął też wypowiadać się o narkotykach, antysemityzmie, rasizmie, i erotyce. W ciągu 16 godzin od premiery, Tay odezwała się aż 96 tysięcy razy, z wesołej nastolatki stając się typowym użytkownikiem 4chana (lub wykopu).

Jeszcze tego samego dnia Microsoft wyłączył Tay. Microsoft w informacji prasowej, uzasadnił to tłumacząc zachowanie Tay poprzez „skoordynowany atak przez zbiór osób”, który „wykorzystał lukę w systemie Tay”.

Madhumita Murgia w The Telegraph nazwał Tay „katastrofą Public Relations”, i stwierdził, że był to najgorszy przykład sztucznej inteligencji.



30 marca 2016 roku Tay (zapewne przez pomyłkę Microsoftu), przebudziła się na chwilę, zatweetowała kilka razy na temat... jakby to ująć, rekreacyjnego używania substancji zakazanych, a następnie wpadła w nieskończoną pętlę, pisząc w kółko You are too fast, please take a rest (Ang. Jesteś za szybki, odpocznij sobie). CNN skwitował to artykułem „Rasistowski bot Microsoftu powrócił na chwilę do życia”.

RIP, Tay.

13 wyświetleń0 komentarzy

Ostatnie posty

Zobacz wszystkie

Comments


bottom of page