Cloud computing to pojęcie, które może kojarzyć się z czymś nowoczesnym i powstałym w niedawnej historii technologii. Jednak jego korzenie sięgają czasów o wiele wcześniejszych. W niniejszym artykule prześledzimy ewolucję tej rewolucyjnej koncepcji od wczesnych dni informatyki aż do współczesnych czasów.
Prehistoria chmury
Początki cloud computingu sięgają 1963 roku, kiedy to DARPA (Defense Advanced Research Projects Agency) zainwestowała w projekt MAC (Multiple Access Computer), pierwszy system umożliwiający dzielenie czasu procesora między wieloma użytkownikami. W latach 60. XX wieku pojęcie time-sharingu zyskało popularność, przede wszystkim dzięki technologii Remote Job Entry (RJE), stosowanej głównie przez takie firmy jak IBM czy DEC.
W tym czasie dominował model „data center”, gdzie użytkownicy składali zadania do wykonania przez operatorów na mainframe’ach IBM. W latach 70. zaczęły pojawiać się pełne rozwiązania time-sharingowe, jak Multics na sprzęcie GE, Cambridge CTSS czy wczesne porty UNIX na sprzęcie DEC. W praktyce - oznaczało to, że zamiast liczyć na operatorów, naukowcy potrzebujący użycia komputera, mogli robić to samodzielnie.
Kolejny przełom przyszedł wraz z rozwojem Internetu na przełomie lat 80. i 90. W latach 90. firmy telekomunikacyjne zaczęły oferować usługi sieci prywatnych wirtualnych (VPN), które zapewniały jakość usług porównywalną z dedykowanymi połączeniami, ale w niższych cenach. Cloud computing zaczął być symbolem nowej ery w zarządzaniu danymi. VPN kojarzymy teraz ze zmianą wirtualnego adresu geograficznego, jednak oznacza on dostęp do zasobów w innym miejscu, tak, jakby były w naszej sieci lokalnej.
Wszystko to odbywało się pod różnymi nazwami (np. zdalny dostęp) - jednak bez użycia metafory przetwarzania bądź składowania w chmurze.
Pojawia się pojęcie chmury
W 1994 roku firma General Magic użyła metafory chmury do opisania środowiska Telescript, w którym mobilne agenty mogły podróżować po sieci w poszukiwaniu dostępu do różnych źródeł informacji. To właśnie wtedy zaczęto postrzegać cloud computing nie tylko jako zdalny dostęp do usług, ale jako platformę do tworzenia złożonych usług wirtualnych. Na przykład miejsce, gdzie uruchamiane są aplikacje niezależnie od uwagi użytkownika.
W 2002 roku Amazon założył filię o nazwie Amazon Web Services, umożliwiając deweloperom budowanie aplikacji niezależnie od tradycyjnych infrastruktur IT. W 2006 roku firma wprowadziła kolejne usługi: Simple Storage Service (S3) i Elastic Compute Cloud (EC2), które były jednymi z pierwszych usług wykorzystujących wirtualizację serwerów na zasadzie płatności za rzeczywiste użycie. Narodziło się pojęcie infrastruktura jako usługa (ang. Infrastructure as a Service).
Rok 2007 przynosi kolejne przełomy: Netflix uruchomił swoją usługę strumieniowania filmów online - tworząc tym samym pierwszą usługę strumieniowania opartą na modelu Software as a Service, a IBM i Google współpracowali z uniwersytetami nad tworzeniem farm serwerowych dla celów badawczych.
Dekada 2010 rozpoczęła się od wprowadzenia przez Microsoft platformy Microsoft Azure. Wkrótce potem, Rackspace Hosting i NASA zainicjowały projekt OpenStack, mający na celu ułatwienie organizacjom oferowania usług cloud computing na standardowym sprzęcie, w odróżnieniu do urządzeń sieciowych dedykowanych serwerowniom.
W kolejnych latach rozwój chmury nabrał tempa. IBM wprowadził framework IBM SmartCloud, a rząd USA stworzył program FedRAMP, ustanawiając standardy bezpieczeństwa dla usług chmurowych. W 2011 roku Apple uruchomił iCloud, a w 2012 Oracle ogłosił Oracle Cloud.
Bez chmury nie byłoby AI?
Na przestrzeni ostatnich lat, zwłaszcza po pandemii w 2020 roku, cloud computing zyskał na popularności jako narzędzie zapewniające elastyczność pracy zdalnej oraz bezpieczeństwo danych. Obecnie globalne wydatki na usługi cloudowe wynoszą 706 miliardów dolarów, a przewiduje się, że do 2025 roku osiągną one wartość 1,3 biliona dolarów.
Współczesne osiągnięcia w dziedzinie sztucznej inteligencji, takie jak ChatGPT, byłyby niemożliwe bez infrastruktury zapewnianej przez cloud computing. Chmura oferuje ogromną moc obliczeniową i zasoby niezbędne do przetwarzania i analizy dużych zbiorów danych, które są kluczowe dla uczenia maszynowego i AI. Dzięki cloud computing, algorytmy AI mogą być trenowane na skomplikowanych modelach z wykorzystaniem ogromnych ilości danych znacznie szybciej i efektywniej niż kiedykolwiek wcześniej. Co więcej, chmura umożliwia łatwą skalowalność i dostępność tych zasobów, co jest krytyczne dla bieżącej eksploracji i innowacji w AI. Dostarczając elastyczne i mocne zasoby obliczeniowe na żądanie, cloud computing nie tylko wspiera rozwój nowych możliwości w AI, ale także umożliwia szybsze wdrażanie i integrację inteligentnych aplikacji w codziennym życiu i biznesie. Tym samym, chmura stała się fundamentem, na którym opiera się nowoczesna sztuczna inteligencja, przekształcając teoretyczne koncepcje w praktyczne aplikacje, które zmieniają sposób, w jaki pracujemy, uczymy się i komunikujemy.
Historia cloud computingu pokazuje, jak daleko technologia może nas zaprowadzić, oferując coraz to nowe możliwości zarówno biznesom, jak i indywidualnym użytkownikom. Jest to opowieść o ciągłym dążeniu do efektywniejszego i bardziej elastycznego wykorzystania zasobów komputerowych, które definiują współczesny świat technologii.
Comments