top of page
Hubert Taler

Sztuczna inteligencja (AI) rewolucjonizuje nasz świat, od opieki zdrowotnej po finanse. Ale, jak mówiła ciocia May, z wielką mocą wiąże się wielka odpowiedzialność. (A może to był wujek Ben?) Rozważania etyczne w AI są kluczowe, aby technologia przynosiła korzyści społeczeństwu bez wyrządzania szkody.

Ostatnie tygodnie przyniosły dużo dyskusji na temat etyki użycia AI, nie tylko od strony użytkowania gotowego rozwiązania, ale i przy przygotowaniu np. modelu językowego. CZy możemy używać obrazów które są publicznie dostępne? Czy możemy trenować nasz model na publicznie dostępnych tekstach?


By Gage Skidmore, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=27440650

Czy wreszcie, możemy oprzeć głos naszej aplikacji na głosie znanej aktorki, nawet, gdy nie wyrazi ona na to zgody? Taka historia przecież (prawdopobnie), wydarzyła się Scarlett Johansson.

Od lat kluczowe kwestie etyczne związane z AI to m.in:

  1. Stronniczość i sprawiedliwość: Systemy AI mogą nieumyślnie utrwalać uprzedzenia obecne w danych treningowych, prowadząc do niesprawiedliwych wyników. Widać tutaj podobieństwo do działania ludzkiego mózgu.

  2. Prywatność: trenowanie AI często wymaga ogromnych ilości danych, co rodzi obawy dotyczące sposobu zbierania, przechowywania i wykorzystywania tych danych.

  3. Przejrzystość: Zrozumienie, jak AI podejmuje decyzje, jest kluczowe dla odpowiedzialności. Jest to nawet przedmiotem osobnego zagadnienia: interpretowalności oraz wyjaśnialności AI. Tak złożone systemy są dla nas zupełnie nieprzejrzyste.

  4. Autonomia: Równoważenie kontroli człowieka z autonomią AI, aby zapewnić etyczne wyniki. Musimy tu postawić granicę pomiędzy podejmowaniem decyzji przez człowieka na podstawie danych dostarczonych przez AI a samodzielnym podejmowaniem decyzji przez AI bez ingerencji czy kontroli człowieka.

Aby etycznie wykorzystać potencjał AI, musimy priorytetowo traktować przejrzystość, sprawiedliwość i odpowiedzialność. Współpraca między technologiami, etykami i decydentami będzie kluczowa, aby odpowiedzialnie poruszać się po tym nowym obszarze.

Kiedy AI przekracza granice etyki

Sztuczna inteligencja ma ogromny potencjał, ale nie jest wolna od pułapek. Oto kilka znanych przypadków, w których AI przekroczyła granice etyki:

W 2020 roku jedna z dużych firm technologicznych spotkała się z krytyką za oprogramowanie do rozpoznawania twarzy używane przez organy ścigania. Obawy dotyczące uprzedzeń rasowych i naruszeń prywatności doprowadziły do publicznego oburzenia i ostatecznego zawieszenia programu.

Inny przykład: globalna korporacja używała narzędzia AI do rekrutacji, które później okazało się faworyzować mężczyzn ze względu na stronnicze dane treningowe. To podkreśliło ryzyko utrwalania przez AI istniejących uprzedzeń społecznych.

Kolejny przykład pochodzi z Chin, gdzie niektóre miasta wdrożyły systemy predyktywnej policji oparte na AI, które nieproporcjonalnie celowały w społeczności mniejszościowe. Brak przejrzystości i odpowiedzialności rodził poważne pytania etyczne.

Wnioski wskazują na potrzebę ciągłego monitorowania i aktualizowania systemów AI w celu ograniczenia uprzedzeń, a także na konieczność jasnej komunikacji na temat sposobu podejmowania decyzji przez AI. Ważne są również silniejsze polityki regulujące etyczne wykorzystanie AI. Te przypadki podkreślają potrzebę czujności, przejrzystości i wytycznych etycznych w rozwoju i wdrażaniu sztucznej inteligencji.


Dall-E generated metaphor of "Ethical AI"

Rola regulacji w etyce AI

W miarę postępu technologii AI potrzeba solidnych ram regulacyjnych staje się coraz bardziej krytyczna, aby zapewnić etyczne praktyki. Oto jak regulacje odgrywają kluczową rolę:

Ochrona prywatności

Regulacje takie jak RODO w Europie ustanawiają surowe standardy ochrony danych, zapewniając, że systemy AI odpowiedzialnie przetwarzają dane osobowe. Jest to ważny element przyjętego niedawno AI ACT.

Zapewnienie sprawiedliwości

Prawo może wymagać regularnych audytów algorytmów AI w celu wykrywania i ograniczania uprzedzeń, promując sprawiedliwość i równość w aplikacjach. Szczególnie tyczy się to algorytmów, które klasyfikują wypowiedzi albo np. kandydatów do pracy lub starających się o usługi finansowe.

Odpowiedzialność i przejrzystość

Ramowe regulacje mogą wymagać od firm ujawniania, jak ich systemy AI podejmują decyzje, co sprzyja przejrzystości i odpowiedzialności. Ważna jest tu również zasada „nieudawania człowieka” - decyzję ostateczną powinien podjąć człowiek na podstawie rekomendacji od algorytmu. Jeśli informacja wygenerowana przez model językowy trafia do klienta lub użytkownika, powinna być oznaczona w ten sposób - powinniśmy zawsze wiedzieć, że rozmawiamy z AI.

Zapobieganie szkodom

Poprzez ustanawianie jasnych wytycznych etycznych, regulacje mogą pomóc w zapobieganiu niewłaściwemu wykorzystaniu AI w obszarach takich jak nadzór, predyktywna policja i broń autonomiczna.

Co w przyszłości?

Przyszłość regulacji AI wymaga opracowania międzynarodowych porozumień, które zapewnią spójne praktyki etyczne na całym świecie. Kluczowe jest także ciągłe aktualizowanie regulacji, aby nadążały za szybkim rozwojem technologicznym. W proces ten powinni być zaangażowani wszyscy interesariusze, w tym technolodzy, etycy, decydenci i społeczeństwo. Skuteczna regulacja jest niezbędna, aby wykorzystać korzyści AI, jednocześnie chroniąc przed jej ryzykiem, zapewniając, że technologia służy ludzkości etycznie i sprawiedliwie.

Tworzenie etycznej AI to skomplikowane, ale kluczowe zadanie, które napotyka na kilka głównych wyzwań. Systemy AI uczą się na podstawie danych, które mogą zawierać uprzedzenia społeczne, prowadząc do niesprawiedliwych wyników. Ponadto, algorytmy AI, szczególnie modele głębokiego uczenia, mogą być nieprzejrzyste, co utrudnia zrozumienie procesu podejmowania decyzji. Wdrażanie wytycznych etycznych w sposób spójny we wszystkich aplikacjach AI jest trudne, zwłaszcza w dużych organizacjach, a szybki rozwój technologii AI często wyprzedza tworzenie standardów i regulacji etycznych.

Budowanie etycznej AI wymaga skoordynowanego wysiłku, aby proaktywnie stawić czoła wyzwaniom i zapewnić, że technologia przynosi korzyści całemu społeczeństwu w sposób sprawiedliwy i przejrzysty. Kluczowe strategie obejmują stosowanie różnorodnych i reprezentatywnych zestawów danych do trenowania modeli AI, co zmniejsza ryzyko uprzedzeń. Ważne jest również opracowanie systemów AI, które mogą wyjaśniać swoje procesy decyzyjne w zrozumiały sposób. Regularne audyty etyczne, przeprowadzane przez niezależne strony trzecie, pomagają w utrzymaniu zgodności z wytycznymi etycznymi. Współpraca interdyscyplinarna, z udziałem etyków, socjologów i innych ekspertów, zapewnia uwzględnienie różnych perspektyw w procesie rozwoju AI. Ponadto, ciągłe uczenie się i dostosowywanie systemów AI do najnowszych wytycznych etycznych i najlepszych praktyk jest niezbędne dla utrzymania wysokich standardów etycznych.

Jak kształtować etyczną AI?

Patrząc w przyszłość, rozwój AI będzie miał coraz większe znaczenie etyczne. Możemy spodziewać się bardziej kompleksowych i globalnie uznawanych wytycznych etycznych, które pomogą ujednolicić praktyki w różnych branżach. Rządy i organizacje międzynarodowe mogą ustanowić dedykowane organy do nadzorowania etyki AI, zapewniając zgodność i rozwiązując naruszenia etyczne. Ponadto, uniwersytety i programy szkoleniowe prawdopodobnie włączą etykę głęboko w programy nauczania AI, przygotowując przyszłych deweloperów do priorytetowego traktowania kwestii etycznych.

Postęp technologiczny odegra kluczową rolę w kształtowaniu przyszłości etyki AI. Nowe technologie, takie jak wyjaśnialne AI i narzędzia do wykrywania uprzedzeń, pomogą deweloperom tworzyć bardziej przejrzyste i sprawiedliwe systemy AI. Zwiększona świadomość i zaangażowanie społeczne w kwestie etyki AI będą napędzać popyt na etyczną AI, wpływając na firmy do przyjęcia odpowiedzialnych praktyk. Ważne będzie również, aby ramy etyczne były proaktywnie aktualizowane, aby nadążać za szybkim postępem AI, co wymaga współpracy między technologami, etykami, decydentami i społeczeństwem.

W przyszłości możemy również oczekiwać, że rozwój nowych technologii będzie z natury wspierał praktyki etyczne. Wspólne wysiłki w zakresie proaktywnej adaptacji i etycznych innowacji zapewnią, że AI będzie służyła ludzkości w sposób pozytywny i sprawiedliwy. Dynamiczny krajobraz przyszłości AI i etyki wymaga ciągłej czujności i współpracy, aby zagwarantować, że technologie te przyniosą korzyści całemu społeczeństwu.

Hubert Taler

Aby przybliżyć temat Deep Learningu, czyli głębokiego uczenia, nie sposób nie poruszyć tematu sztucznych sieci neuronowych, na których cała ta koncepcja się opiera.

Sieci neuronowe to sztuczny system przetwarzania informacji (w dzisiejszych czasach stuprocentowo oparty o oprogramowanie - nie ma w nim elektronicznych czy fizycznych części), który symuluje w pewnym stopniu działanie ludzkiego mózgu. W pewnym stopniu - czyli nie stanowią one modelu rzeczywistych struktur mózgu, jedynie pożyczają ogólną zasadę działania.


Sieci neuronowe to nie nowinka

Sieci neuronowe nie są nowością w informatyce. Jako sieci jednokierunkowe (bez propagacji wstecznej), pojawiły się już w latach 40 20. wieku. Były to tzw. perceptrony. Jak definiuje Wikipedia:

Działanie perceptronu polega na klasyfikowaniu danych pojawiających się na wejściu i ustawianiu stosownie do tego wartości wyjścia

I ta zasada działania do dziś odnosi się do wszystkich sieci neuronowych, których używamy. Co potrafiły perceptrony? Na przykład stworzony przez Franka Rosenblatta i Charlesa Whightmana perceptron był wytrenowany do rozpoznawania znaków alfanumerycznych. Było to w 1957 roku.


Sieć neuronowa z ukrytymi warstwami (Autorstwa John Salatas - https://jsalatas.ictpro.gr/implementation-of-elman-recurrent-neural-network-in-weka/, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=56969207)

Od tamtego czasu struktury sieci neuronowych mocno się skomplikowały. Po sieciach jednokierunkowych pojawiły się sieci rekurencyjne, w których połączenia między neuronami stanowią graf z cyklami oraz inne ich rodzaje np. sieci samoorganizujące się.

Po co nam te sieci

No właśnie, po co właściwie ludzkość tworzyła od ponad 80 lat te sztuczne sieci neuronowe? Ze względu na ich unikalną cechę: pozwalają rozwiązywać praktyczne problemy bez konieczności ich formalizowania matematycznego.

O co chodzi? Możemy np. znaleźć zależność między podawanymi lekami i wynikami leczenia, rozpoznać jaką emocję wyraża fotografia twarzy, lub zaproponować najkorzystniejszą kombinację akcji w naszym portfolio, bez pisania złożonych równań opisujących rzeczywistość. Tym bardziej, że często takich równań nie jesteśmy w stanie napisać - a dzięki sieciom neuronowym „piszą” się one same, odzwierciedlając zależności pomiędzy wejściem i wyjściem w sieci.

Jak to możliwe? No cóż, cudów nie ma. Po prostu musimy dostarczyć sieci tysiące, lub dziesiątki tysięcy przykładów danych obserwacyjnych (aby pociągnąć temat z przykładu: kombinacji aktywów w portfelu i wyniku finansowego), by po takim „nauczeni się”, mogła samodzielnie rozwiązywać kolejne.

Tak, podobnie jak człowiek, sieć neuronowa, uczy się na przykładach.

I tak naprawdę, przy okazji wyjaśniliśmy też tytułowe pojęcie głębokiego uczenia (ang. deep learning). Jest to metoda trenowania wielowarstwowej sieci neuronowej, bez dokładnego znania parametrów tego uczenia. Tego typu metoda pozwala na wykrycie skomplikowanych wzorców w danych.


Pierwszy perceptron - sieć można było obejrzeć fizycznie

Sprawdzam! Czy deep learning zadziałał?

Ciekawy jest sposób, w jaki sprawdza się tak wytrenowaną sieć. Inżynier lub naukowie trenujący taką sieć, zostawia sobie próbkę oryginalnych danych (np. 10% danych), i nie są one używane do trenowania sieci. Po wytrenowaniu, sprawdza jej odpowiedzi na tej próbce - dane wyjściowe powinny w jak największym stopniu odzwierciedlać dane rzeczywiste. Skoro działa na danych rzeczywistych, które mamy, jest szansa, że będzie działać też na nowo zebranych danych.

Oznacza to oczywiście też, że wszelkie nieprawidłowości w zbieraniu danych (np. nieświadome ich zawężenie tzw. data bias), też spowodują, że nasz wytrenowany model nie będzie odpowiednio przygotowany na analizę danych rzeczywistych. Podobnie też tego typu systemy są podatne na celowe ataki - czyli celowe „zatrucie” (ang data contamination) danych wejściowych.

Do czego tego używać?

Systemy oparte o deep learning używane są powszechnie w rozpoznawaniu mowy, rozpoznawaniu obrazów, klasyfikowania obrazów np. w celach medycznych, rekonstrukcję obrazów lub innych mediów, które zostały uszkodzone lub są niekompletne. Istnieje też kategoria zastosowań tego typu systemów w celach związanych z cyberbezpieczeństwem (np. Wykrywanie ataków lub nietypowych zachowań).

Uczenie głębokie jest z nami na dobre, i jest nieuchronnie powiązane z budowaniem sieci neuronowych. Używamy go na codzień, zarówno dzwoniąc na zautomatyzowaną infolinię, jak i pozwalając smartfonowi wykrywać zdjęcia pejzaży czy selfie wśród zrobionych przez nas fotografii.

Hubert Taler

There is no hotter topic at the moment than AI. AI is everywhere. It will do everything. It will replace us in everything. It will cause us to lose our jobs....

If we asked 100 randomly met people on the pavement of a big city what AI is, the answers would mostly fall into two categories. The first: that it is a kind of chat bot, very smart, and answering questions. Plus helping kids with their homework. The second: that it's a generator of detailed, colourful, amazing, but also often slightly weird pictures. On the other hand, almost every company is now boasting about the use of artificial intelligence in their day-to-day work, and you will come across a smart hoover or even a smart face cream in the shops....

The concept of artificial intelligence is therefore much broader. To help sort out all these concepts, we are starting a series of articles under the heading 'AI Alphabet'. In more than 20 articles, we will tell both the history of artificial intelligence research and the most important concepts related to this field.


Mężczyzna trzymający kartkę z napisem AI

Want to learn more about artificial intelligence? Find out first what real one is

We won't build artificial intelligence without thinking first - what we actually want to emulate. When do we recognise, observed behaviour as intelligent? What exactly is intelligence?

We do not have a precise definition of this phenomenon. In simple terms, we can assume that it is the ability to achieve goals. From this definition, it follows that one can be intelligent to varying degrees, and intelligence is demonstrated by humans and animals. Under changing conditions, we - animals, humans and computer programs - are able to achieve our goals to varying degrees. And since we can establish some gradation here, we may also be tempted to measure intelligence.

Artificial intelligence - what were its beginnings?

It all started just after the Second World War, when computer science had developed enough for us to start thinking about building the first intelligent solutions. A key figure in the field of artificial intelligence research was the famous English mathematician, Alan Turing. In his lecture as early as 1947, he pointed the way forward for artificial intelligence. According to him, it was necessary to write intelligent programmes rather than build intelligent machines. And this is what we still do today - artificial intelligence is actually intelligent software, me or more. We can see Turing's story in the film The Imitation Game with Benedict Cumberbatch.

What are the characteristics of intelligence (including artificial one)?

A computer program that learns from previous interactions with its environment can be called intelligent. A simple example is memory learning, used not only in online dictionaries, but also in other pattern recognition applications.

A higher level of learning is deep learning, which is mainly based on neural networks that allow the transformation of input data, such as photos, into structured knowledge, such as information about the people depicted in them. A characteristic feature of deep learning is minimal human involvement in the learning process, which sometimes leads to difficulties in interpreting the results, known as the 'black box' problem.


Robot zbudowany z części elektronicznych

Another area in which humans - like most mammals - continue to outperform machines is inference. This is the process of creating new knowledge from past experience, both by deduction (for example: "I left my wallet in the room or in the kitchen; since it's not in the room, it must be in the kitchen") and induction ("Last time I was in this mall, I had trouble parking, so this time I'll opt for the metro"). These examples show how we create new knowledge, which, when implemented in the form of computer algorithms, is a process that is still in development.

Another feature we are trying to instil in artificial intelligence algorithms is pattern search. This is a form of knowledge synthesis, already being used in medical diagnostics, for example. Artificial neural networks can learn to recognise common patterns, for example in X-ray images. In this way, they can support doctors in detecting abnormalities. Such technologies make it possible, among other things, to speed up the diagnosis of cancer.

Humanity test

The first test of whether artificial intelligence has reached human intelligence was devised by the aforementioned Alan Turing. Hence its name 'the Turing test'. It assumes that if we are able to talk to a programme, and not distinguish it from a human - then the application passes the test. It is interesting how history has come full circle: the father of artificial intelligence predicted that we would talk to AI: just like ChatGPT and other conversational models of neural networks.

One might be tempted to say that passing the Turing test is close - we have a growing problem determining whether we are talking to AI or a human.

By the way, an interesting fact: the popular Captcha tests that require us to "mark street lights on pictures" are also Turing tests - they are one to prove that the interlocutor is actually a human and not a machine.

AI winter vs AI boom: A cautionary tale about technological enthusiasm

The notion of an 'AI Winter' offers a historical perspective on the cyclical nature of technological advances and societal expectations, particularly in the field of artificial intelligence. AI Winter refers to periods that are characterised by a significant decline in enthusiasm, funding and progress in AI research.

The term emerged during a debate at the 1984 AAAI meeting, reflecting disillusionment after the exaggerated expectations of the 1970s. These winters were triggered by disillusionment after overly ambitious predictions about AI failed to materialise, leading to severe cuts in funding and interest. The periods 1974-1980 and 1987-2000 are significant examples where failures in machine translation and perceptrons led to widespread scepticism about the feasibility of AI technology.

Wykres przedstawiający liczbę publikacji naukowych n/t AI
Liczba publikacji naukowych n/t AI rośnie gwałtownie od 2016 roku (wg raportu Uniwersytetu Stanforda)

This phenomenon highlights the importance of setting realistic goals and managing public and investor expectations in emerging technologies.

In contrast, the AI landscape has seen a dramatic revival since around 2012, commonly referred to as the 'AI boom'. This renewed energy is largely driven by significant breakthroughs in machine learning and neural networks, which have found applications in a variety of sectors, including healthcare, automotive, finance and many others. Investment and research has increased, driven by successes in natural language processing, image recognition and autonomous systems.

Companies such as Google, Amazon, Facebook, Microsoft and Apple are leading the way, investing billions in AI development and acquiring startups, signalling a solid belief in the technology's potential. This boom is not only about technological advances, but also a deep understanding of the ethical implications of AI, ensuring that its integration into society is handled with accountability and transparency. Despite witnessing this boom, the lessons from previous AI winters remain relevant, reminding us of the need for sustainable and transparent growth in AI.

bottom of page