top of page
Hubert Taler

The popularity of chatbots started even before the big AI boom. A computer program, answering the user's questions, interacting with the user and having a dialogue with the user, turned out to be an ideal idea for the user interface of language models.

However, before the big language models were created, and popularised by ChatGPT from OpenAI, the concept of a chatbot had already existed for many years. The term chatbot (from to chat - to chat and bot - short for robots) first appeared in the form 'chatterbot'.

Today, let's talk about some of these predecessors of the famous 'Chad GPT'.

The first chatbot - ELIZA

Once again, the father of artificial intelligence research Alan Turing appears in our story. His Turing test (a way to determine whether we are talking to a human or an artificial intelligence), was already dialogue-based in its conception. It was this concept that, in 1964, inspired American scientist of German origin Joseph Weizenbaum to create a computer program called ELIZA.

The task of ELIZA, a program written in the SLIP language, was to conduct a dialogue with the user. It resembled a conversation with a therapist, as ELIZA often responded with a question to a question ("I am tired" -- "Why do you think you are tired?").



It was because of this human way of conducting the conversation that ELIZA was often thought to be smarter than she actually was. In fact, it was a fairly simple program based on pattern recognition in English. This effect -- of attributing human qualities and greater skills than in reality -- was called the Eliza Effect. Today we observe it frequently among ChatGPT users ("This thing understands everything!").

Today we can chat with ELIZA online at this address. One of ELIZA's successors, A.L.I.C.E, was the inspiration for the film Her, in which a man falls in love with a chat bot.

IRC bots

An important stage in the development of chatbots was the so-called IRC bots - basically, scripts that automated various tasks in the once popular Internet Relay Chat service, which was used by users to discuss things online. It was something that could be compared to today's Discord or Slack services.

IRC bots could execute commands, help manage a group of chatters, share files, run quizzes or knowledge-based tournaments and even play games with users.

The first IRC bot was probably a bot that allowed users to play the classic game Hunt the Wumpus. IRC bots supported the lives of users who were often not even aware of their existence.

Tay's grim fate

On 23 March 2016, Tay was born - the first virtual influencer responding to Twitter users from under the @TayAndYou address. She was created by Microsoft and her personality was meant to emulate a typical American teenager.

Tay was able to respond to Twitter taunts and even create memes from submitted photos. Importantly - she was also able to learn from her interactions with Twitter users. However, this was 2016, and what we now take for granted - e.g. validation checks on tweets sent - did not yet exist. What could have gone wrong?



Exposed to the collective great minds of the internet, the bot was soon 'taught' the denialism of the Holocaust, among other things, and also began to make statements about drugs, anti-Semitism, racism, and erotica. Within 16 hours of its release, Tay had spoken up to 96,000 times, going from being a cheerful teenager to a typical 4chan user.

Later the same day, Microsoft deactivated Tay. Microsoft, in a press release, justified this by explaining Tay's behaviour through a "coordinated attack by a collection of individuals" who "exploited a vulnerability in Tay's system".

Madhumita Murgia in The Telegraph called Tay a "public relations disaster", and said it was the worst example of artificial intelligence.



On 30 March 2016, Tay (presumably by Microsoft's mistake), woke up for a moment, tweeted a few times about.... as if to put it, recreational use of banned substances, and then fell into an endless loop, writing over and over again You are too fast, please take a rest. CNN commented on this with the article 'Microsoft's racist bot came back to life for a while'.

Rest in peace, Tay.

Hubert Taler

Cloud computing to pojęcie, które może kojarzyć się z czymś nowoczesnym i powstałym w niedawnej historii technologii. Jednak jego korzenie sięgają czasów o wiele wcześniejszych. W niniejszym artykule prześledzimy ewolucję tej rewolucyjnej koncepcji od wczesnych dni informatyki aż do współczesnych czasów.

Prehistoria chmury

Początki cloud computingu sięgają 1963 roku, kiedy to DARPA (Defense Advanced Research Projects Agency) zainwestowała w projekt MAC (Multiple Access Computer), pierwszy system umożliwiający dzielenie czasu procesora między wieloma użytkownikami. W latach 60. XX wieku pojęcie time-sharingu zyskało popularność, przede wszystkim dzięki technologii Remote Job Entry (RJE), stosowanej głównie przez takie firmy jak IBM czy DEC.

W tym czasie dominował model „data center”, gdzie użytkownicy składali zadania do wykonania przez operatorów na mainframe’ach IBM. W latach 70. zaczęły pojawiać się pełne rozwiązania time-sharingowe, jak Multics na sprzęcie GE, Cambridge CTSS czy wczesne porty UNIX na sprzęcie DEC. W praktyce - oznaczało to, że zamiast liczyć na operatorów, naukowcy potrzebujący użycia komputera, mogli robić to samodzielnie.

Kolejny przełom przyszedł wraz z rozwojem Internetu na przełomie lat 80. i 90. W latach 90. firmy telekomunikacyjne zaczęły oferować usługi sieci prywatnych wirtualnych (VPN), które zapewniały jakość usług porównywalną z dedykowanymi połączeniami, ale w niższych cenach. Cloud computing zaczął być symbolem nowej ery w zarządzaniu danymi. VPN kojarzymy teraz ze zmianą wirtualnego adresu geograficznego, jednak oznacza on dostęp do zasobów w innym miejscu, tak, jakby były w naszej sieci lokalnej.

Wszystko to odbywało się pod różnymi nazwami (np. zdalny dostęp) - jednak bez użycia metafory przetwarzania bądź składowania w chmurze.



Pojawia się pojęcie chmury

W 1994 roku firma General Magic użyła metafory chmury do opisania środowiska Telescript, w którym mobilne agenty mogły podróżować po sieci w poszukiwaniu dostępu do różnych źródeł informacji. To właśnie wtedy zaczęto postrzegać cloud computing  nie tylko jako zdalny dostęp do usług, ale jako platformę do tworzenia złożonych usług wirtualnych. Na przykład miejsce, gdzie uruchamiane są aplikacje niezależnie od uwagi użytkownika.

W 2002 roku Amazon założył filię o nazwie Amazon Web Services, umożliwiając deweloperom budowanie aplikacji niezależnie od tradycyjnych infrastruktur IT. W 2006 roku firma wprowadziła kolejne usługi: Simple Storage Service (S3) i Elastic Compute Cloud (EC2), które były jednymi z pierwszych usług wykorzystujących wirtualizację serwerów na zasadzie płatności za rzeczywiste użycie. Narodziło się pojęcie infrastruktura jako usługa (ang. Infrastructure as a Service).

Rok 2007 przynosi kolejne przełomy: Netflix uruchomił swoją usługę strumieniowania filmów online - tworząc tym samym pierwszą usługę strumieniowania opartą na modelu Software as a Service, a IBM i Google współpracowali z uniwersytetami nad tworzeniem farm serwerowych dla celów badawczych.

Dekada 2010 rozpoczęła się od wprowadzenia przez Microsoft platformy Microsoft Azure. Wkrótce potem, Rackspace Hosting i NASA zainicjowały projekt OpenStack, mający na celu ułatwienie organizacjom oferowania usług cloud computing na standardowym sprzęcie, w odróżnieniu do urządzeń sieciowych dedykowanych serwerowniom.

W kolejnych latach rozwój chmury nabrał tempa. IBM wprowadził framework IBM SmartCloud, a rząd USA stworzył program FedRAMP, ustanawiając standardy bezpieczeństwa dla usług chmurowych. W 2011 roku Apple uruchomił iCloud, a w 2012 Oracle ogłosił Oracle Cloud.



Bez chmury nie byłoby AI?

Na przestrzeni ostatnich lat, zwłaszcza po pandemii w 2020 roku, cloud computing zyskał na popularności jako narzędzie zapewniające elastyczność pracy zdalnej oraz bezpieczeństwo danych. Obecnie globalne wydatki na usługi cloudowe wynoszą 706 miliardów dolarów, a przewiduje się, że do 2025 roku osiągną one wartość 1,3 biliona dolarów.

Współczesne osiągnięcia w dziedzinie sztucznej inteligencji, takie jak ChatGPT, byłyby niemożliwe bez infrastruktury zapewnianej przez cloud computing. Chmura oferuje ogromną moc obliczeniową i zasoby niezbędne do przetwarzania i analizy dużych zbiorów danych, które są kluczowe dla uczenia maszynowego i AI. Dzięki cloud computing, algorytmy AI mogą być trenowane na skomplikowanych modelach z wykorzystaniem ogromnych ilości danych znacznie szybciej i efektywniej niż kiedykolwiek wcześniej. Co więcej, chmura umożliwia łatwą skalowalność i dostępność tych zasobów, co jest krytyczne dla bieżącej eksploracji i innowacji w AI. Dostarczając elastyczne i mocne zasoby obliczeniowe na żądanie, cloud computing nie tylko wspiera rozwój nowych możliwości w AI, ale także umożliwia szybsze wdrażanie i integrację inteligentnych aplikacji w codziennym życiu i biznesie. Tym samym, chmura stała się fundamentem, na którym opiera się nowoczesna sztuczna inteligencja, przekształcając teoretyczne koncepcje w praktyczne aplikacje, które zmieniają sposób, w jaki pracujemy, uczymy się i komunikujemy.

Historia cloud computingu pokazuje, jak daleko technologia może nas zaprowadzić, oferując coraz to nowe możliwości zarówno biznesom, jak i indywidualnym użytkownikom. Jest to opowieść o ciągłym dążeniu do efektywniejszego i bardziej elastycznego wykorzystania zasobów komputerowych, które definiują współczesny świat technologii.

Hubert Taler

Zaktualizowano: 26 kwi 2024

Popularność chatbotów (bądź z polska czatbotów) zaczęła się jeszcze przez wielkim boomem na AI. Program, odpowiadający na pytania użytkownika, wchodzący z nim w interakcję i prowadzący z nim dialog, okazał się być idealnym pomysłem na interfejs użytkownika modeli językowych.

Zanim jednak powstały wielkie modele językowe, i zostały spopularyzowane przez ChatGPT od OpenAI, pojęcie chatbota istniało już od wielu lat. Pojęcie chatbot (od ang. to chat - prowadzić pogawędkę oraz bot - skrót od robót) po raz pierwszy pojawiło się w formie „chatterbot”.

Opowiedzmy sobie dziś o niektórych z tych poprzedników słynnego „Chada GPT”.

Pierwszy chatbot - ELIZA

Po raz kolejny w naszej opowieści pojawia się ojciec badań nad sztuczną inteligencją Alan Turing. Jego test Turinga (sposób na określenie, czy rozmawiamy z człowiekiem, czy sztuczną inteligencją), już w swoim założeniu był oparty na dialogu. To właśnie ta koncepcja w 1964 roku zainspirowała amerykańskiego naukowca niemieckiego pochodzenia Josepha Weizenbauma do stworzenia programu o nazwie ELIZA.

Zadaniem ELIZY, napisanego w języku SLIP programu, było prowadzenie dialogu z użytkownikiem. Przypominał on rozmowę z terapeutą, ponieważ ELIZA często odpowiadała pytaniem na pytanie („Jestem zmęczony” -- „Dlaczego uważasz że jesteś zmęczony?”).



To właśnie dzięki temu ludzkiemu sposobowi prowadzenia rozmowy, ELIZA była często uważana za mądrzejszą niż była w rzeczywistości. Tak naprawdę być to dość prosty program oparty na rozpoznawaniu wzorców w języku angielskim. Efekt ten (przypisywania ludzkich cech i większych niż w rzeczywistości umiejętności) nazwano Efektem Elizy. Dziś obserwujemy go często wśród użytkowników ChatGPT („Ten czat wszystko rozumie!”).

Dziś z ELIZA możemy porozmawiać online pod tym adresem. Jeden z następców ELIZY, A.L.I.C.E, stał się inspiracją dla filmu Her, w którym człowiek zakochuje się w czat bocie.

IRC boty

Ważnym etapem w rozwoju czatbotów były tzw. IRC boty - czyli skrypty które automatyzowały różne zadania w popularnej niegdyś usłudze Internet Relay Chat, która służyła użytkownikom do dyskutowania online. Było to coś, co można by porównać do dzisiejszej usług Discord bądź Slack.

IRC boty mogły wykonywać polecenia, pomagać zarządzać grupą rozmawiających, udostępniać pliki, prowadzić quizy czy turnieje oparte na wiedzy na nawet prowadzić z użytkownikami gry.

Pierwszym IRC botem był prawdopodobnie bot, który umożliwiał granie w klasyczną grę Hunt the Wumpus. IRC boty wspomagały życie użytkowników, którzy nawet często nie zdawali sobie sprawy z ich istnienia.

Ponury los Tay

23 marca 2016 roku narodziła się Tay - pierwsza wirtualna influencerka odpowiadająca użytkownikom Twittera spod adresu @TayAndYou. Stworzyła ją firma Microsoft, a jej osobowość miała naśladować typową amerykańską nastolatkę.

Tay potrafiła odpowiadać na Twitterowe zaczepki, a nawet tworzyć memy z nadesłanych zdjęć. Co ważne - potrafiła tez uczyć się na podstawie interakcji z użytkownikami Twittera. Był to jednak 2016 rok, i to co teraz uważamy za oczywiste - np. kontrola poprawności przesyłanych tweetów, jeszcze nie istniało. Co mogło pójść nie tak?



Wystawiony na wspólne działanie wielkich umysłów internetu bot, wkrótce został „nauczony” m.in. denializmu Holocaustu, zaczął też wypowiadać się o narkotykach, antysemityzmie, rasizmie, i erotyce. W ciągu 16 godzin od premiery, Tay odezwała się aż 96 tysięcy razy, z wesołej nastolatki stając się typowym użytkownikiem 4chana (lub wykopu).

Jeszcze tego samego dnia Microsoft wyłączył Tay. Microsoft w informacji prasowej, uzasadnił to tłumacząc zachowanie Tay poprzez „skoordynowany atak przez zbiór osób”, który „wykorzystał lukę w systemie Tay”.

Madhumita Murgia w The Telegraph nazwał Tay „katastrofą Public Relations”, i stwierdził, że był to najgorszy przykład sztucznej inteligencji.



30 marca 2016 roku Tay (zapewne przez pomyłkę Microsoftu), przebudziła się na chwilę, zatweetowała kilka razy na temat... jakby to ująć, rekreacyjnego używania substancji zakazanych, a następnie wpadła w nieskończoną pętlę, pisząc w kółko You are too fast, please take a rest (Ang. Jesteś za szybki, odpocznij sobie). CNN skwitował to artykułem „Rasistowski bot Microsoftu powrócił na chwilę do życia”.

RIP, Tay.

bottom of page