top of page
  • Hubert Taler

Cloud computing is a concept that may be associated with something modern and developed in the recent history of technology. However, its roots go back to much earlier times. In this article, we trace the evolution of this revolutionary concept from the early days of computing to modern times.

The prehistory of the cloud

The origins of cloud computing can be traced back to 1963, when DARPA (Defense Advanced Research Projects Agency) invested in the MAC (Multiple Access Computer) project, the first system to enable the sharing of CPU time between multiple users. In the 1960s, the concept of time-sharing gained popularity, primarily through Remote Job Entry (RJE) technology, mainly used by companies such as IBM and DEC.

The dominant model at the time was the ‘data centre’ model, where users submitted jobs to be completed by operators on IBM mainframes. In the 1970s, full time-sharing solutions began to appear, such as Multics on GE hardware, Cambridge CTSS or early UNIX ports on DEC hardware. In practice - this meant that instead of relying on operators, researchers needing to use a computer could do it themselves.

Another breakthrough came with the development of the Internet in the late 1980s and early 1990s. In the 1990s, telecoms companies began to offer virtual private network (VPN) services, which provided a quality of service comparable to dedicated connections, but at lower prices. Cloud computing began to symbolise a new era in data management. We now associate VPN with a change of virtual geographical address, but it means accessing resources elsewhere as if they were on our local network.

This has all gone by various names (e.g. remote access) - but without using the metaphor of cloud computing or storage.



The concept of the cloud is emerging

In 1994, General Magic used the cloud metaphor to describe the Telescript environment, in which mobile agents could travel around the network in search of access to various sources of information. It was then that cloud computing began to be seen not just as remote access to services, but as a platform for creating complex virtual services. For example, a place where applications run independently of the user's attention.

In 2002, Amazon established a subsidiary called Amazon Web Services, enabling developers to build applications independently of traditional IT infrastructures. In 2006, the company introduced further services: Simple Storage Service (S3) and Elastic Compute Cloud (EC2), which were among the first services to use server virtualisation on a pay-per-use basis. The term Infrastructure as a Service (IaaS) was born.

2007 brought further breakthroughs: Netflix launched its online movie streaming service - thus creating the first streaming service based on the Software as a Service model, and IBM and Google collaborated with universities to create server farms for research purposes.

The decade of 2010 began with Microsoft introducing the Microsoft Azure platform. Shortly thereafter, Rackspace Hosting and NASA initiated the OpenStack project, aimed at making it easier for organisations to offer cloud computing services on standard hardware, as opposed to network equipment dedicated to server farms.

In the following years, cloud development accelerated. IBM introduced the IBM SmartCloud framework and the US government created the FedRAMP programme, setting security standards for cloud services. In 2011, Apple launched iCloud and in 2012 Oracle announced Oracle Cloud.



Without the cloud, would there be no AI?

Over the past few years, especially after the 2020 pandemic, cloud computing has grown in popularity as a tool to provide remote working flexibility and data security. Currently, global spending on cloud services stands at $706 billion and is expected to reach $1.3 trillion by 2025.

Modern advances in artificial intelligence, such as ChatGPT, would be impossible without the infrastructure provided by cloud computing. The cloud offers the immense computing power and resources necessary to process and analyse the large data sets that are central to machine learning and AI. With cloud computing, AI algorithms can be trained on complex models using massive amounts of data much faster and more efficiently than ever before. What's more, the cloud enables easy scalability and availability of these resources, which is critical for ongoing exploration and innovation in AI. By providing flexible and powerful on-demand computing resources, cloud computing not only supports the development of new capabilities in AI, but also enables faster deployment and integration of smart applications into everyday life and business. Thus, the cloud has become the foundation on which modern AI is built, transforming theoretical concepts into practical applications that change the way we work, learn and communicate.

The story of cloud computing shows how far technology can take us, offering ever new opportunities for businesses and individual users alike. It is a story about the ongoing quest for more efficient and flexible use of the computing resources that define the modern world of technology.

  • Hubert Taler

Sztuczna inteligencja (AI) rewolucjonizuje nasz świat, od opieki zdrowotnej po finanse. Ale, jak mówiła ciocia May, z wielką mocą wiąże się wielka odpowiedzialność. (A może to był wujek Ben?) Rozważania etyczne w AI są kluczowe, aby technologia przynosiła korzyści społeczeństwu bez wyrządzania szkody.

Ostatnie tygodnie przyniosły dużo dyskusji na temat etyki użycia AI, nie tylko od strony użytkowania gotowego rozwiązania, ale i przy przygotowaniu np. modelu językowego. CZy możemy używać obrazów które są publicznie dostępne? Czy możemy trenować nasz model na publicznie dostępnych tekstach?


By Gage Skidmore, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=27440650

Czy wreszcie, możemy oprzeć głos naszej aplikacji na głosie znanej aktorki, nawet, gdy nie wyrazi ona na to zgody? Taka historia przecież (prawdopobnie), wydarzyła się Scarlett Johansson.

Od lat kluczowe kwestie etyczne związane z AI to m.in:

  1. Stronniczość i sprawiedliwość: Systemy AI mogą nieumyślnie utrwalać uprzedzenia obecne w danych treningowych, prowadząc do niesprawiedliwych wyników. Widać tutaj podobieństwo do działania ludzkiego mózgu.

  2. Prywatność: trenowanie AI często wymaga ogromnych ilości danych, co rodzi obawy dotyczące sposobu zbierania, przechowywania i wykorzystywania tych danych.

  3. Przejrzystość: Zrozumienie, jak AI podejmuje decyzje, jest kluczowe dla odpowiedzialności. Jest to nawet przedmiotem osobnego zagadnienia: interpretowalności oraz wyjaśnialności AI. Tak złożone systemy są dla nas zupełnie nieprzejrzyste.

  4. Autonomia: Równoważenie kontroli człowieka z autonomią AI, aby zapewnić etyczne wyniki. Musimy tu postawić granicę pomiędzy podejmowaniem decyzji przez człowieka na podstawie danych dostarczonych przez AI a samodzielnym podejmowaniem decyzji przez AI bez ingerencji czy kontroli człowieka.

Aby etycznie wykorzystać potencjał AI, musimy priorytetowo traktować przejrzystość, sprawiedliwość i odpowiedzialność. Współpraca między technologiami, etykami i decydentami będzie kluczowa, aby odpowiedzialnie poruszać się po tym nowym obszarze.

Kiedy AI przekracza granice etyki

Sztuczna inteligencja ma ogromny potencjał, ale nie jest wolna od pułapek. Oto kilka znanych przypadków, w których AI przekroczyła granice etyki:

W 2020 roku jedna z dużych firm technologicznych spotkała się z krytyką za oprogramowanie do rozpoznawania twarzy używane przez organy ścigania. Obawy dotyczące uprzedzeń rasowych i naruszeń prywatności doprowadziły do publicznego oburzenia i ostatecznego zawieszenia programu.

Inny przykład: globalna korporacja używała narzędzia AI do rekrutacji, które później okazało się faworyzować mężczyzn ze względu na stronnicze dane treningowe. To podkreśliło ryzyko utrwalania przez AI istniejących uprzedzeń społecznych.

Kolejny przykład pochodzi z Chin, gdzie niektóre miasta wdrożyły systemy predyktywnej policji oparte na AI, które nieproporcjonalnie celowały w społeczności mniejszościowe. Brak przejrzystości i odpowiedzialności rodził poważne pytania etyczne.

Wnioski wskazują na potrzebę ciągłego monitorowania i aktualizowania systemów AI w celu ograniczenia uprzedzeń, a także na konieczność jasnej komunikacji na temat sposobu podejmowania decyzji przez AI. Ważne są również silniejsze polityki regulujące etyczne wykorzystanie AI. Te przypadki podkreślają potrzebę czujności, przejrzystości i wytycznych etycznych w rozwoju i wdrażaniu sztucznej inteligencji.


Dall-E generated metaphor of "Ethical AI"

Rola regulacji w etyce AI

W miarę postępu technologii AI potrzeba solidnych ram regulacyjnych staje się coraz bardziej krytyczna, aby zapewnić etyczne praktyki. Oto jak regulacje odgrywają kluczową rolę:

Ochrona prywatności

Regulacje takie jak RODO w Europie ustanawiają surowe standardy ochrony danych, zapewniając, że systemy AI odpowiedzialnie przetwarzają dane osobowe. Jest to ważny element przyjętego niedawno AI ACT.

Zapewnienie sprawiedliwości

Prawo może wymagać regularnych audytów algorytmów AI w celu wykrywania i ograniczania uprzedzeń, promując sprawiedliwość i równość w aplikacjach. Szczególnie tyczy się to algorytmów, które klasyfikują wypowiedzi albo np. kandydatów do pracy lub starających się o usługi finansowe.

Odpowiedzialność i przejrzystość

Ramowe regulacje mogą wymagać od firm ujawniania, jak ich systemy AI podejmują decyzje, co sprzyja przejrzystości i odpowiedzialności. Ważna jest tu również zasada „nieudawania człowieka” - decyzję ostateczną powinien podjąć człowiek na podstawie rekomendacji od algorytmu. Jeśli informacja wygenerowana przez model językowy trafia do klienta lub użytkownika, powinna być oznaczona w ten sposób - powinniśmy zawsze wiedzieć, że rozmawiamy z AI.

Zapobieganie szkodom

Poprzez ustanawianie jasnych wytycznych etycznych, regulacje mogą pomóc w zapobieganiu niewłaściwemu wykorzystaniu AI w obszarach takich jak nadzór, predyktywna policja i broń autonomiczna.

Co w przyszłości?

Przyszłość regulacji AI wymaga opracowania międzynarodowych porozumień, które zapewnią spójne praktyki etyczne na całym świecie. Kluczowe jest także ciągłe aktualizowanie regulacji, aby nadążały za szybkim rozwojem technologicznym. W proces ten powinni być zaangażowani wszyscy interesariusze, w tym technolodzy, etycy, decydenci i społeczeństwo. Skuteczna regulacja jest niezbędna, aby wykorzystać korzyści AI, jednocześnie chroniąc przed jej ryzykiem, zapewniając, że technologia służy ludzkości etycznie i sprawiedliwie.

Tworzenie etycznej AI to skomplikowane, ale kluczowe zadanie, które napotyka na kilka głównych wyzwań. Systemy AI uczą się na podstawie danych, które mogą zawierać uprzedzenia społeczne, prowadząc do niesprawiedliwych wyników. Ponadto, algorytmy AI, szczególnie modele głębokiego uczenia, mogą być nieprzejrzyste, co utrudnia zrozumienie procesu podejmowania decyzji. Wdrażanie wytycznych etycznych w sposób spójny we wszystkich aplikacjach AI jest trudne, zwłaszcza w dużych organizacjach, a szybki rozwój technologii AI często wyprzedza tworzenie standardów i regulacji etycznych.

Budowanie etycznej AI wymaga skoordynowanego wysiłku, aby proaktywnie stawić czoła wyzwaniom i zapewnić, że technologia przynosi korzyści całemu społeczeństwu w sposób sprawiedliwy i przejrzysty. Kluczowe strategie obejmują stosowanie różnorodnych i reprezentatywnych zestawów danych do trenowania modeli AI, co zmniejsza ryzyko uprzedzeń. Ważne jest również opracowanie systemów AI, które mogą wyjaśniać swoje procesy decyzyjne w zrozumiały sposób. Regularne audyty etyczne, przeprowadzane przez niezależne strony trzecie, pomagają w utrzymaniu zgodności z wytycznymi etycznymi. Współpraca interdyscyplinarna, z udziałem etyków, socjologów i innych ekspertów, zapewnia uwzględnienie różnych perspektyw w procesie rozwoju AI. Ponadto, ciągłe uczenie się i dostosowywanie systemów AI do najnowszych wytycznych etycznych i najlepszych praktyk jest niezbędne dla utrzymania wysokich standardów etycznych.

Jak kształtować etyczną AI?

Patrząc w przyszłość, rozwój AI będzie miał coraz większe znaczenie etyczne. Możemy spodziewać się bardziej kompleksowych i globalnie uznawanych wytycznych etycznych, które pomogą ujednolicić praktyki w różnych branżach. Rządy i organizacje międzynarodowe mogą ustanowić dedykowane organy do nadzorowania etyki AI, zapewniając zgodność i rozwiązując naruszenia etyczne. Ponadto, uniwersytety i programy szkoleniowe prawdopodobnie włączą etykę głęboko w programy nauczania AI, przygotowując przyszłych deweloperów do priorytetowego traktowania kwestii etycznych.

Postęp technologiczny odegra kluczową rolę w kształtowaniu przyszłości etyki AI. Nowe technologie, takie jak wyjaśnialne AI i narzędzia do wykrywania uprzedzeń, pomogą deweloperom tworzyć bardziej przejrzyste i sprawiedliwe systemy AI. Zwiększona świadomość i zaangażowanie społeczne w kwestie etyki AI będą napędzać popyt na etyczną AI, wpływając na firmy do przyjęcia odpowiedzialnych praktyk. Ważne będzie również, aby ramy etyczne były proaktywnie aktualizowane, aby nadążać za szybkim postępem AI, co wymaga współpracy między technologami, etykami, decydentami i społeczeństwem.

W przyszłości możemy również oczekiwać, że rozwój nowych technologii będzie z natury wspierał praktyki etyczne. Wspólne wysiłki w zakresie proaktywnej adaptacji i etycznych innowacji zapewnią, że AI będzie służyła ludzkości w sposób pozytywny i sprawiedliwy. Dynamiczny krajobraz przyszłości AI i etyki wymaga ciągłej czujności i współpracy, aby zagwarantować, że technologie te przyniosą korzyści całemu społeczeństwu.

  • Hubert Taler

Aby przybliżyć temat Deep Learningu, czyli głębokiego uczenia, nie sposób nie poruszyć tematu sztucznych sieci neuronowych, na których cała ta koncepcja się opiera.

Sieci neuronowe to sztuczny system przetwarzania informacji (w dzisiejszych czasach stuprocentowo oparty o oprogramowanie - nie ma w nim elektronicznych czy fizycznych części), który symuluje w pewnym stopniu działanie ludzkiego mózgu. W pewnym stopniu - czyli nie stanowią one modelu rzeczywistych struktur mózgu, jedynie pożyczają ogólną zasadę działania.


Sieci neuronowe to nie nowinka

Sieci neuronowe nie są nowością w informatyce. Jako sieci jednokierunkowe (bez propagacji wstecznej), pojawiły się już w latach 40 20. wieku. Były to tzw. perceptrony. Jak definiuje Wikipedia:

Działanie perceptronu polega na klasyfikowaniu danych pojawiających się na wejściu i ustawianiu stosownie do tego wartości wyjścia

I ta zasada działania do dziś odnosi się do wszystkich sieci neuronowych, których używamy. Co potrafiły perceptrony? Na przykład stworzony przez Franka Rosenblatta i Charlesa Whightmana perceptron był wytrenowany do rozpoznawania znaków alfanumerycznych. Było to w 1957 roku.


Sieć neuronowa z ukrytymi warstwami (Autorstwa John Salatas - https://jsalatas.ictpro.gr/implementation-of-elman-recurrent-neural-network-in-weka/, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=56969207)

Od tamtego czasu struktury sieci neuronowych mocno się skomplikowały. Po sieciach jednokierunkowych pojawiły się sieci rekurencyjne, w których połączenia między neuronami stanowią graf z cyklami oraz inne ich rodzaje np. sieci samoorganizujące się.

Po co nam te sieci

No właśnie, po co właściwie ludzkość tworzyła od ponad 80 lat te sztuczne sieci neuronowe? Ze względu na ich unikalną cechę: pozwalają rozwiązywać praktyczne problemy bez konieczności ich formalizowania matematycznego.

O co chodzi? Możemy np. znaleźć zależność między podawanymi lekami i wynikami leczenia, rozpoznać jaką emocję wyraża fotografia twarzy, lub zaproponować najkorzystniejszą kombinację akcji w naszym portfolio, bez pisania złożonych równań opisujących rzeczywistość. Tym bardziej, że często takich równań nie jesteśmy w stanie napisać - a dzięki sieciom neuronowym „piszą” się one same, odzwierciedlając zależności pomiędzy wejściem i wyjściem w sieci.

Jak to możliwe? No cóż, cudów nie ma. Po prostu musimy dostarczyć sieci tysiące, lub dziesiątki tysięcy przykładów danych obserwacyjnych (aby pociągnąć temat z przykładu: kombinacji aktywów w portfelu i wyniku finansowego), by po takim „nauczeni się”, mogła samodzielnie rozwiązywać kolejne.

Tak, podobnie jak człowiek, sieć neuronowa, uczy się na przykładach.

I tak naprawdę, przy okazji wyjaśniliśmy też tytułowe pojęcie głębokiego uczenia (ang. deep learning). Jest to metoda trenowania wielowarstwowej sieci neuronowej, bez dokładnego znania parametrów tego uczenia. Tego typu metoda pozwala na wykrycie skomplikowanych wzorców w danych.


Pierwszy perceptron - sieć można było obejrzeć fizycznie

Sprawdzam! Czy deep learning zadziałał?

Ciekawy jest sposób, w jaki sprawdza się tak wytrenowaną sieć. Inżynier lub naukowie trenujący taką sieć, zostawia sobie próbkę oryginalnych danych (np. 10% danych), i nie są one używane do trenowania sieci. Po wytrenowaniu, sprawdza jej odpowiedzi na tej próbce - dane wyjściowe powinny w jak największym stopniu odzwierciedlać dane rzeczywiste. Skoro działa na danych rzeczywistych, które mamy, jest szansa, że będzie działać też na nowo zebranych danych.

Oznacza to oczywiście też, że wszelkie nieprawidłowości w zbieraniu danych (np. nieświadome ich zawężenie tzw. data bias), też spowodują, że nasz wytrenowany model nie będzie odpowiednio przygotowany na analizę danych rzeczywistych. Podobnie też tego typu systemy są podatne na celowe ataki - czyli celowe „zatrucie” (ang data contamination) danych wejściowych.

Do czego tego używać?

Systemy oparte o deep learning używane są powszechnie w rozpoznawaniu mowy, rozpoznawaniu obrazów, klasyfikowania obrazów np. w celach medycznych, rekonstrukcję obrazów lub innych mediów, które zostały uszkodzone lub są niekompletne. Istnieje też kategoria zastosowań tego typu systemów w celach związanych z cyberbezpieczeństwem (np. Wykrywanie ataków lub nietypowych zachowań).

Uczenie głębokie jest z nami na dobre, i jest nieuchronnie powiązane z budowaniem sieci neuronowych. Używamy go na codzień, zarówno dzwoniąc na zautomatyzowaną infolinię, jak i pozwalając smartfonowi wykrywać zdjęcia pejzaży czy selfie wśród zrobionych przez nas fotografii.

bottom of page