Sztuczna inteligencja (AI) staje się coraz bardziej powszechna w naszym życiu. Nie ogranicza się już do określonych branż lub instytucji badawczych; AI jest teraz dla każdego.
Trudno uniknąć zalewu treści opartych na sztucznej inteligencji, a jeszcze trudniej zrozumieć wiele krążących terminów. Nie możemy jednak prowadzić rozmów na temat sztucznej inteligencji, nie rozumiejąc leżących u jej podstaw koncepcji.
Przygotowaliśmy słownik terminów, które naszym zdaniem każdy powinien znać, jeśli chce być na bieżąco.
Algorytm
Algorytm to zestaw instrukcji wydawanych komputerowi w celu rozwiązania problemu lub wykonania obliczeń, które przekształcają dane w użyteczną informację.
Problem z wyrównaniem
Problem dostosowania odnosi się do rozbieżności między zamierzonymi celami dotyczącymi systemu sztucznej inteligencji a wynikami, jakie on generuje. Nieprawidłowo zestrojony system może charakteryzować się wyższą wydajnością, a mimo to zachowywać się w sposób sprzeczny z ludzkimi wartościami. Przykład tego widzieliśmy w 2015 r. , kiedy algorytm rozpoznawania obrazów używany w Zdjęciach Google automatycznie oznaczał zdjęcia osób czarnoskórych jako „goryle”.
Sztuczna inteligencja ogólna (AGI)
Sztuczna inteligencja ogólna odnosi się do hipotetycznego momentu w przyszłości, w którym oczekuje się, że sztuczna inteligencja dorówna (lub przewyższy) zdolności poznawcze człowieka. Większość ekspertów ds. sztucznej inteligencji zgadza się, że tak się stanie, ale nie zgadza się co do konkretnych szczegółów, takich jak kiedy to nastąpi i czy spowoduje to, że systemy sztucznej inteligencji będą w pełni autonomiczne.
Sztuczna sieć neuronowa (ANN)
Sztuczne sieci neuronowe to algorytmy komputerowe stosowane w gałęzi sztucznej inteligencji zwanej głębokim uczeniem się . Składają się z warstw połączonych ze sobą węzłów w sposób naśladujący obwody nerwowe ludzkiego mózgu.
Big Data
Big data odnosi się do zbiorów danych, które są naprawdę ogromne i bardziej złożone niż tradycyjne dane. Te zbiory danych, które znacznie przekraczają pojemność komputerów domowych, pomogły obecnym modelom AI działać z dużą dokładnością.
Big data można scharakteryzować za pomocą czterech V: „objętość” odnosi się do całkowitej ilości danych, „szybkość” odnosi się do szybkości wzrostu danych, „prawdziwość” odnosi się do stopnia złożoności danych, a „różnorodność” odnosi się do różnych formaty, w jakich przychodzą dane.
Pokój Chiński
Eksperyment myślowy Chiński Pokój został po raz pierwszy zaproponowany przez amerykańskiego filozofa Johna Searle’a w 1980 roku. Dowodzi on, że program komputerowy, niezależnie od tego, jak pozornie inteligentny jest w swojej konstrukcji, nigdy nie będzie świadomy i nie będzie w stanie naprawdę zrozumieć swojego zachowania tak jak robi to człowiek.
Koncepcja ta często pojawia się w rozmowach na temat narzędzi AI, takich jak ChatGPT, które wydają się wykazywać cechy samoświadomej jednostki, ale w rzeczywistości przedstawiają jedynie wyniki oparte na przewidywaniach dokonanych przez podstawowy model.
Głęboka nauka
Głębokie uczenie się to kategoria w branży sztucznej inteligencji, która opiera się na uczeniu maszynowym. Systemy głębokiego uczenia się wykorzystują zaawansowane sieci neuronowe i mogą przetwarzać duże ilości złożonych danych w celu osiągnięcia większej dokładności.
Systemy te dobrze radzą sobie ze stosunkowo złożonymi zadaniami i mogą nawet wykazywać inteligentne zachowanie przypominające ludzkie.
Model dyfuzyjny
Model dyfuzyjny to model sztucznej inteligencji, który uczy się, dodając losowy „szum” do zestawu danych szkoleniowych przed jego usunięciem, a następnie oceniając różnice. Celem jest poznanie podstawowych wzorców lub relacji w danych, które nie są od razu oczywiste.
Modele te zaprojektowano tak, aby samokorygowały się w przypadku napotkania nowych danych i dlatego są szczególnie przydatne w sytuacjach, w których występuje niepewność lub gdy problem jest bardzo złożony.
Wyjaśnialna sztuczna inteligencja
Wyjaśnialna sztuczna inteligencja to wyłaniająca się, interdyscyplinarna dziedzina zajmująca się tworzeniem metod, które zwiększą zaufanie użytkowników do procesów systemów AI.
Ze względu na nieodłączną złożoność niektórych modeli sztucznej inteligencji ich wewnętrzne działanie jest często nieprzejrzyste i nie możemy z całą pewnością stwierdzić, dlaczego generują takie wyniki, jakie osiągają. Wyjaśnialna sztuczna inteligencja ma na celu zwiększenie przejrzystości systemów „czarnych skrzynek”.
Generatywna sztuczna inteligencja
Są to systemy sztucznej inteligencji, które w odpowiedzi na monity generują nową treść – w tym tekst, obraz, treść audio i wideo. Popularne przykłady to ChatGPT, DALL-E 2 i Midjourney.
Etykietowanie
Etykietowanie danych to proces, w ramach którego punkty danych są kategoryzowane, aby pomóc modelowi sztucznej inteligencji zrozumieć dane. Obejmuje to identyfikację struktur danych (takich jak obraz, tekst, dźwięk lub wideo) i dodanie do danych etykiet (takich jak tagi i klasy).
Etykietowanie wykonują ludzie, zanim rozpocznie się uczenie maszynowe. Oznaczone dane są podzielone na odrębne zbiory danych do celów uczenia, walidacji i testowania.
Zbiór uczący jest wprowadzany do systemu w celu uczenia się. Zbiór walidacyjny służy do sprawdzenia, czy model działa zgodnie z oczekiwaniami i kiedy można zatrzymać dostrajanie parametrów i uczenie. Zestaw testowy służy do oceny wydajności gotowego modelu.
Model dużego języka (LLM)
Duże modele językowe (LLM) są szkolone na ogromnych ilościach tekstu bez etykiety. Analizują dane, uczą się wzorców między słowami i mogą generować reakcje podobne do ludzkich. Przykładami systemów sztucznej inteligencji korzystających z dużych modeli językowych są serie GPT OpenAI oraz serie BERT i LaMDA firmy Google.
Nauczanie maszynowe
Uczenie maszynowe to gałąź sztucznej inteligencji polegająca na szkoleniu systemów sztucznej inteligencji, aby były w stanie analizować dane, uczyć się wzorców i formułować prognozy bez specjalnych instrukcji ze strony człowieka.
Przetwarzanie języka naturalnego (NLP)
Chociaż duże modele językowe to specyficzny typ modelu sztucznej inteligencji używany do zadań związanych z językiem, przetwarzanie języka naturalnego to szersza dziedzina sztucznej inteligencji, która koncentruje się na zdolności maszyn do uczenia się, rozumienia i tworzenia ludzkiego języka.
Parametry
Parametry to ustawienia używane do dostrajania modeli uczenia maszynowego. Można o nich myśleć jak o zaprogramowanych wagach i odchyleniach, których używa model podczas prognozowania lub wykonywania zadania.
Ponieważ parametry określają, w jaki sposób model będzie przetwarzał i analizował dane, określają również, jak będzie on działać. Przykładowym parametrem jest liczba neuronów w danej warstwie sieci neuronowej. Zwiększenie liczby neuronów umożliwi sieci neuronowej realizację bardziej złożonych zadań, ale kompromisem będzie dłuższy czas obliczeń i koszty.
Odpowiedzialna sztuczna inteligencja
Odpowiedzialny ruch AI opowiada się za opracowywaniem i wdrażaniem systemów AI w sposób skoncentrowany na człowieku.
Jednym z aspektów tego jest osadzenie systemów sztucznej inteligencji w zasadach, które będą nakazywały im przestrzeganie zasad etycznych. Zapobiegłoby to (w idealnym przypadku) uzyskiwaniu wyników, które są stronnicze, dyskryminujące lub mogłyby w inny sposób prowadzić do szkodliwych skutków.
Analiza sentymentów
Analiza sentymentów to technika przetwarzania języka naturalnego stosowana do identyfikacji i interpretacji emocji kryjących się za tekstem . Wychwytuje ukryte informacje, takie jak na przykład ton autora i zakres pozytywnej lub negatywnej ekspresji.
Nadzorowana nauka
Uczenie się nadzorowane to podejście polegające na uczeniu maszynowym, w którym oznaczone dane są wykorzystywane do uczenia algorytmu w celu przewidywania. Algorytm uczy się dopasowywać oznaczone dane wejściowe do właściwych danych wyjściowych. Po wyciągnięciu wniosków z dużej liczby przykładów może w dalszym ciągu formułować prognozy, gdy pojawią się nowe dane.
Dane treningowe
Dane szkoleniowe to (zwykle oznaczone) dane wykorzystywane do uczenia systemów sztucznej inteligencji, jak dokonywać prognoz. Dokładność i reprezentatywność danych szkoleniowych mają duży wpływ na skuteczność modelu.
Transformator
Transformator to rodzaj modelu głębokiego uczenia się używany głównie w zadaniach przetwarzania języka naturalnego.
Transformator jest przeznaczony do przetwarzania danych sekwencyjnych, takich jak tekst w języku naturalnym, i ustalania, w jaki sposób różne części są ze sobą powiązane. Można to porównać do tego, jak osoba czytająca zdanie zwraca uwagę na kolejność słów, aby zrozumieć znaczenie zdania jako całości.
Jednym z przykładów jest wstępnie wyszkolony transformator generatywny (GPT), na którym działa chatbot ChatGPT. Model GPT wykorzystuje transformator do uczenia się z dużego zbioru tekstu bez etykiety.
Test Turinga
Test Turinga to koncepcja inteligencji maszynowej wprowadzona po raz pierwszy przez informatyka Alana Turinga w 1950 roku.
Ma to na celu określenie, czy komputer może wykazywać ludzką inteligencję. W teście osoba oceniająca porównuje wyniki pracy komputera i człowieka. Jeśli dane wyjściowe zostaną uznane za nierozróżnialne, komputer zdał test.
Według doniesień Google LaMDA i ChatGPT OpenAI przeszły test Turinga, choć krytycy twierdzą, że wyniki ujawniają ograniczenia w stosowaniu testu do porównywania inteligencji komputerów i ludzi.
Uczenie się bez nadzoru
Uczenie się bez nadzoru to podejście polegające na uczeniu maszynowym, w którym algorytmy są szkolone na nieoznakowanych danych. Bez interwencji człowieka system bada wzorce w danych w celu odkrycia niezidentyfikowanych wzorców, które można wykorzystać do dalszej analizy.