Co to jest sztuczna inteligencja?

Co to jest sztuczna inteligencja?

 

Każdego dnia korzystamy z aplikacji i usług cyfrowych i generujemy olbrzymią ilość danych. Sztuczna inteligencja (AI) pozwala je uporządkować i wydobyć z nich sens. Przyspiesza innowacje i transformację cyfrową. Rekomendacje wideo, wyniki wyszukiwarek, rozpoznawanie głosu, osobiści asystenci i autonomiczne samochody to przykłady zastosowań sztucznej inteligencji w naszym codziennym życiu.

AI and Machine Learning OVHcloud

Sztuczna inteligencja (AI) opiera się na zdolności systemów do tworzenia interakcji między algorytmami, działającymi podobnie jak sieci neuronowe ludzkiego mózgu. Aby zrozumieć pytanie, przewidzieć intencję lub rozpoznać element obrazu, AI w bardzo krótkim czasie łączy się z bazą danych. Oblicza prawdopodobieństwa, a następnie podaje jasną i naturalną odpowiedź, jakbyśmy mieli do czynienia z ludzką inteligencją.

OVHcloud AI Training

Definicja sztucznej inteligencji (AI)

 

AI bazuje na potencjale jednostek obliczeniowych, które odtwarzają ludzki sposób uczenia się. Sieć neuronowa dokonuje coraz bardziej złożonych i precyzyjnych operacji - na początku poprzez naśladownictwo, a następnie poprzez analizę. Przewiduje się, że z czasem sztuczna inteligencja stanie się zdolna do odtworzenia - lub nawet przewyższenia - ludzkich umiejętności myślenia. Będzie zatem rozpoznawać elementy na obrazach, modelować dane, syntetyzować informacje, przewidywać trendy i podawać precyzyjne wyniki, używając do tego naturalnego języka.

 

Historia sztucznej inteligencji

Począwszy od lat 40. XX wieku, kiedy to pojawiły się pierwsze komputery, wielu naukowców, a wśród nich Alan Turing, myślało o stworzeniu „sztucznego mózgu”. Specjaliści Ci realizowali różne eksperymenty, aby stworzyć maszynę inteligentniejszą od człowieka. Chcąc udowodnić, że jest to możliwe, opracowali słynny system oceny: test Turinga.

Jego zasada jest prosta: przez pięć minut dana osoba wysyła wiadomości za pomocą komputera do dwóch nieznajomych - człowieka i maszyny. Jeśli w wyniku tej konwersacji nie uda się ich rozróżnić, wynik testu uznaje się za pomyślny. Sztuczna inteligencja udowadnia, że posiada wystarczające umiejętności, aby odtwarzać język naturalny i uczestniczyć w inteligentnym dialogu, czasem nawet z nutką humoru.

W 1956 r. trzech matematyków stworzyło pierwszy język sztucznej inteligencji, IPL-11, trenując program do rozwiązywania zadań matematycznych. Program ten szybko nauczył się udowadniać znane twierdzenia i wyjaśniać je w zrozumiały sposób. Naukowcy rozwinęli technologię uczenia maszynowego, z ang. Machine Learning. ML buduje własną sztuczną inteligencję i szkoli się w odtwarzaniu sposobu analizowania dużej ilości danych na wzór człowieka.

 

Zatem uczenie maszynowe i Big Data (czyli zdolność do gromadzenia wykładniczej ilości danych w celu trenowania AI) są kluczem do sukcesu sztucznej inteligencji i dalszego jej rozwoju.

Machine Learning Data Analytics OVHcloud

Jak działa sztuczna inteligencja?

 

Naukowa koncepcja sztucznej inteligencji opiera się na trzech filarach: asymilacji danych, ich analizie oraz wdrożeniu odpowiednich reakcji lub działań.
 

  • Asymilacja informacji

Każda interakcja na stronie internetowej generuje dane. Są one przechwytywane, zapisywane, a następnie przekazywane sztucznej inteligencji. Czasami należy je zanonimizować, ponieważ zgodnie z RODO aktywność użytkownika w sieci nie powinna być łączona z jego danymi osobowymi.

Aby przechwycić informacje i przełożyć je na język zrozumiały dla programów AI, naukowcy tworzą algorytmy uczenia się, nazywane niekiedy „sztucznymi neuronami”. Umożliwiają one na przykład rozszyfrowywanie tysięcy obrazów. Przetwarzają każdy z nich piksel po pikselu, aż utworzą zbiory danych. Inne z kolei programy i algorytmy zostały zaprojektowane do przechwytywania informacji z Big Data, które służą do uczenia algorytmów uczących.

Cloud computing zapewnia moc obliczeniową będącą w stanie sprostać tak złożonej technologii. Umożliwia natychmiastowe wydobycie potencjału z danych i pełne ich wykorzystanie.

 

  • Analiza danych

Informacje przetwarzane i rozszyfrowywane przez sztuczną inteligencję stanowią podstawę jej samouczenia się, określanego mianem uczenia głębokiego lub z ang. Deep Learning. W celu znalezienia właściwej odpowiedzi na określony problem naukowcy ustalają kryteria, które należy zastosować w każdej sytuacji. Algorytmy uczenia maszynowego stopniowo wzbogacają listę kryteriów i proponują nowe, coraz bardziej trafne odpowiedzi.

Im więcej nowych danych zasila AI, tym gęstsza staje się sztuczna sieć neuronowa wyspecjalizowana w głębokim uczeniu. Sztuczna inteligencja uczy się i rozumie, a to wymaga zapewnienia odpowiednich warunków, takich jak stała dostępność Big Data oraz świeżość i wiarygodność danych wejściowych. Data mining (eksploracja danych) to proces analityczny, który umożliwia zbieranie i porównywanie danych w celu identyfikacji podobieństw i trendów rynkowych, jednym słowem - przekształcanie danych w wartość. Rozwój sztucznej inteligencji możliwy jest dzięki potężnej mocy obliczeniowej algorytmów i dostępowi do danych.

Jeśli moc obliczeniowa nie byłaby stale zwiększana, interakcje między sztucznymi sieciami neuronowymi zostałyby spowolnione, co z kolei spowodowałoby obniżenie potencjału AI. Dlatego bardzo szybko pojawiło się zapotrzebowanie na wydajne karty graficzne. W odpowiedzi na potrzeby specjalistów data science poszukujących sposobów optymalizacji zasobów technicznych wprowadziliśmy rozwiązania, takie jak OVHcloud AI Training, dostępne w ramach naszej usługi Public Cloud.

Dzięki nim użytkownicy mogą automatycznie, bez udziału człowieka, optymalizować zasoby przeznaczone do trenowania AI.

Sieci Deep Learning stają się coraz szybsze i coraz wydajniejsze. Przetwarzanie danych jest niemal natychmiastowe, co zwiększa liczbę zastosowań sztucznej inteligencji. Uczenie przez wzmacnianie (z ang. reinforcement learning) nie ma granic - każda nowa informacja zwiększa precyzję AI.

 

  • Wdrożenie odpowiednich reakcji lub działań

Po zinterpretowaniu, porównaniu i przeanalizowaniu danych, sztuczna inteligencja jest w stanie zaproponować odpowiedź lub reakcję zgodną z oczekiwaniami. Jest to forma „odruchu poznawczego”, który eksperci zajmujący się danymi muszą uprzednio zdefiniować, aby sztuczna inteligencja mogła:

  • wyświetlać rekomendacje wideo dostosowane do odbiorcy (inteligencja relacyjna)
  • automatyzować powtarzalne zadania (inteligentna automatyzacja)
  • realizować tłumaczenia w czasie rzeczywistym (analiza semantyczna, interpretacja języków)
  • identyfikować obiecujące trendy rynkowe dla start-upów lub kierowników projektu (inteligencja biznesowa)
  • wyodrębniać określone obiekty (na przykład zwierzęta) z tysięcy zdjęć (rozpoznawanie wizualne)
  • zaparkować pojazd autonomiczny w odpowiednim miejscu (odruch poznawczy, propriocepcja).
machine learning model deployment OVHcloud

Przykłady zastosowań sztucznej inteligencji

 

Model predykcyjny w sektorze publicznym

Bez wsparcia sztucznej inteligencji zarządzanie infrastrukturą i usługami użyteczności publicznej jest skomplikowane i czasochłonne. Każda decyzja wymaga uwzględnienia wielu zmiennych. Na przykład, przed podjęciem decyzji o remoncie dworca należy ustalić priorytety dotyczące koniecznych prac, zbadać natężenie ruchu, zaproponować alternatywne trasy, zapewnić transport zastępczy, etc.

Trening sztucznej inteligencji w zakresie przechwytywania, przetwarzania i analizowania dostępnych danych pozwala na uzyskanie dokładniejszych prognoz. Umożliwia również stworzenie drzew decyzyjnych określających koszty i korzyści płynące z każdej z opcji. Prognozy te są następnie wykorzystywane jako narzędzia wspomagające podejmowanie decyzji (Business Intelligence).

Sztuczna inteligencja jest preferowanym rozwiązaniem w planowaniu operacyjnym. Dotyczy to wszystkich jednostek administracji i służb publicznych.

 

Badania i rozwój w dziedzinie zdrowia

Sztuczna inteligencja jest kluczowym elementem wielu programów badawczo-rozwojowych (R&D) w dziedzinie zdrowia i to właśnie w tym obszarze osiągane są najbardziej obiecujące wyniki.

Na przykład głównym wyzwaniem dla sektora medycznego jest wczesne wykrywanie nowotworów i poważnych chorób. Po zakończonych sukcesem testach rozpoznawania wizualnego, algorytmy AI zostały włączone do programów wczesnego wykrywania raka. Algorytm obrazowania rezonansu magnetycznego (MRI) jest już dziesięć razy szybszy i skuteczniejszy w wykrywaniu guzów mózgu od zespołu neurochirurgów. Dzieje się tak, ponieważ każdy nowy obraz jest porównywany z obrazami z tysięcy baz danych.

Wykorzystanie analizy predykcyjnej i rozpoznawania obrazów może zatem pomóc w ratowaniu pacjentów jeszcze przed ujawnieniem się choroby. To zmienia świat medycyny w rewolucyjny sposób.

Eksploracja danych, dzięki wykorzystaniu tysięcy raportów naukowych, umożliwia:

  • lepsze zrozumienie przyczyn wystąpienia niektórych chorób
  • wykrycie potencjalnych przeciwwskazań do stosowania łącznie różnych leków
  • przyspieszenie badań naukowych na dużą skalę.

 

Bezpieczeństwo informatyczne i ochrona danych

Ochrona danych i zarządzanie nimi są dzisiaj kluczowymi wyzwaniami. Dostęp do informacji, dzielenie się nimi i ich wykorzystywanie ma zasadnicze znaczenie zarówno dla dużych ośrodków badawczych, jak i dla małych firm.

Oprogramowanie zapewniające cyberbezpieczeństwo oraz środowiska oparte na sztucznej inteligencji są w stanie wykryć potencjalne luki w sieci. Mogą również zablokować złośliwe oprogramowanie naśladujące zachowanie człowieka.

 

Automatyczne tłumaczenie w czasie rzeczywistym

Zarządzanie relacjami z klientami jest kluczowym wyzwaniem dla wszystkich firm, którym zależy na dostarczaniu usług najwyższej jakości. Dzięki automatycznemu przetwarzaniu języka naturalnego (Natural Language Processing) sztuczna inteligencja gromadzi zapytania klientów z wielu krajów. Następnie natychmiast przekłada je na język klienta, podobnie jak zrobiłby to tłumacz.

Dzięki temu każdy pracownik obsługi klienta może udzielić właściwej, doskonale zredagowanej i przetłumaczonej na język użytkownika odpowiedzi. Modele odpowiedzi są również generowane przez chatbota na podstawie wcześniejszej korespondencji.

 

Planowanie, monitorowanie zapasów i zarządzanie przepływami

Prognozowanie popytu i zarządzanie zapasami w czasie rzeczywistym to kluczowe wyzwania podmiotów działających w sektorze handlu detalicznego oraz e-commerce.

Przewidywanie sprzedaży dzięki algorytmom predykcyjnym pozwala zamówić u producenta ilość produktów ściśle odpowiadającą bieżącemu zapotrzebowaniu, co do niedawna wydawało się niemal niemożliwe. Wykorzystując dane dotyczące sprzedaży i dane z poprzednich lat, specjaliści mogą teraz wyszkolić sztuczną inteligencję w zakresie zarządzania przepływem dużej liczby artykułów w czasie rzeczywistym. Program Business Intelligence szybko identyfikuje najlepsze wyniki sprzedaży w danym okresie. Dzięki modelom predykcyjnym, algorytmom kontroli i wizualizacji danych kupujący zamawiają odpowiednią ilość produktów we właściwym czasie. W ten sposób unikają marnotrawienia towarów, a z drugiej strony nagłych braków magazynowych.

 

Robotyka i wbudowana inteligencja

Robotyka jest formą sztucznej inteligencji skoncentrowaną na inteligencji poznawczej. W tym przypadku programiści projektują coś więcej niż inteligentny komputer podłączony do sieci. W wyniku ich pracy powstaje autonomiczna maszyna.

Aby móc odpowiednio reagować na otoczenie, roboty lub automaty są wyposażone w czujniki (kamery, mikrofony, radary, sieci obiektów podłączonych do Internetu, etc.). Działają one również zgodnie z odruchami poznawczymi dostosowanymi do każdej sytuacji.

Wbudowana inteligencja udowadnia swój niesamowity potencjał już teraz, wraz z wprowadzeniem na rynek samochodów autonomicznych. Jest ona w stanie zrozumieć kodeks drogowy, samodzielnie parkować, a w razie niebezpieczeństwa hamować z dokładnością do milisekundy.

GPU as a service OVHcloud

Rozwiązania dla sztucznej inteligencji (AI)

 

NVIDIA GPU Cloud

Procesor graficzny (GPU) to jednostka obliczeniowa. Może być zainstalowany na karcie graficznej, takiej jak NVIDIA V100S, lub na płycie głównej. Prawidłowe działanie sztucznej inteligencji zależy od skuteczności jednostek obliczeniowych.

NVIDIA GPU Cloud (NGC) to zbiór oprogramowania GPU, które automatycznie optymalizuje jednostki obliczeniowe sprzętu NVIDIA. Ułatwia to realizację procesów Deep Learning i obliczenia graficzne AI.

 

Jupyter Notebook

Jupyter to bezpłatny, interaktywny notebook open source lub aplikacja internetowa. Użytkownicy wykorzystują go do udostępniania sobie nawzajem wyjaśnień, kodów, równań i wizualizacji.

Jupyter działa z wieloma językami programowania i środowiskami programistycznymi (frameworkami), takimi jak TensorFlow, PyTorch i MxNet. Umożliwia wyświetlanie, modyfikację i wykonanie kodu oraz natychmiastowe sprawdzenie wyniku każdej zmiany. Data scientists używają Jupyter Notebook do tworzenia różnych automatyzacji i sztucznych inteligencji.

 

Apache Spark

Apache Spark jest referencyjnym frameworkiem do masowego przetwarzania danych. Przeszukuje informacje z bazy danych, ładuje do pamięci zaplanowane operacje, a następnie wykonuje wszystkie obliczenia jednocześnie. Po zakończeniu analizy zasoby obliczeniowe są zwalniane.

Apache Spark służy zatem do agregacji ogromnych ilości danych i dostarczania szczegółowych raportów analitycznych.