Mapa zastosowań technologii sztucznej inteligencji: medycyna, edukacja, transport i inne dziedziny. Nosov N.Yu., Sokolov M.D. Trendy w rozwoju sztucznej inteligencji

Prawdopodobnie słyszałeś o robocie, który pojawia się i podaje ci puszkę coli, gdy mówisz mu, że jesteś spragniony. Prawdopodobnie słyszałeś także o systemie rozpoznawania mowy, który kontroluje Twoje sprzęt AGD? Prawdopodobnie słyszałeś o symulatorach samolotów, które mogą pomóc odtworzyć rzeczywiste środowisko lotu samolotu?

W 1956 roku światowej sławy amerykański naukowiec John McCarthy ukuł termin, który leży u podstaw wszystkich tych i wielu innych możliwości. Ukuty przez niego termin brzmiał „sztuczna inteligencja”. Sztuczna inteligencja, w skrócie AI, to nauka i inżynieria, która ma na celu tworzenie inteligentnych maszyn, a także inteligentnych programów komputerowych, które są w stanie reagować jak ludzie. Oznacza to stworzenie takich maszyn, które będą w stanie wyczuwać otaczający ich świat, rozumieć rozmowy i podejmować decyzje podobne do ludzkich wyborów. Sztuczna inteligencja dała nam wszystko, od skanera po roboty w prawdziwym życiu.

Dziś dziedzinę sztucznej inteligencji można określić jako zupę informatyki kognitywnej, psychologii, lingwistyki i matematyki, czekającą na błyskawicę – próbę połączenia wysiłków badaczy i zasobów, opracowania nowych podejść, wykorzystania światowych repozytoriów wiedzę, aby stworzyć iskrę, taką, która będzie tworzyć nowy mundurżycie.

W obszarze sztucznej inteligencji pielęgnujemy maszynę dziecka od dzieciństwa do dorosłości w taki sposób, że tworzymy zupełnie nowe podejście do uczenia maszynowego.

Gałęzie sztucznej inteligencji

John McCarthy zidentyfikował niektóre gałęzie sztucznej inteligencji opisane poniżej. Zauważył również, że kilka z nich nie zostało jeszcze zidentyfikowanych.

Logika sztucznej inteligencji: Program AI musi być świadomy faktów i sytuacji.

Rozpoznawanie wzorców: Kiedy program dokonuje obserwacji, zwykle jest zaprogramowany tak, aby rozpoznawał i dopasowywał wzorzec. Na przykład system rozpoznawania mowy lub system rozpoznawania twarzy.

Wydajność: Musi istnieć sposób na przedstawienie faktów o świecie urządzeniu AI. Do reprezentacji używany jest język matematyczny.

Wniosek: wnioskowanie pozwala na wydobycie nowych faktów z istniejących faktów. Z niektórych faktów można wywnioskować inne.

Planowanie: program planowania rozpoczyna się od faktów i określenia celu. Na ich podstawie program generuje strategię osiągnięcia celu.

Dostępność Zdrowy rozsądek i Rozumowanie- Ten aktywny obszar badań i studiów nad sztuczną inteligencją powstał w latach pięćdziesiątych XX wieku, ale mimo to wyniki są wciąż dalekie od poziomu ludzkiego.

Epistemologia– to zdolność urządzenia do uczenia się i zdobywania wiedzy. Umożliwia przestudiowanie rodzajów wiedzy wymaganej do wykonania określonego rodzaju zadania.

Heurystyczny to sposób na odnalezienie idei zawartej w programie.

Programowanie genetyczne– automatyczne utworzenie programu LISP (List Processing), który pozwala rozwiązać problem.

Narzędzia służące do rozwiązywania złożonych problemów w tworzeniu AI

W ciągu ostatnich sześciu dekad opracowano różne narzędzia do rozwiązywania złożonych problemów w tej dziedzinie Informatyka. Niektórzy z nich są:

Wyszukiwanie i optymalizacja

Większość problemów związanych ze sztuczną inteligencją można rozwiązać teoretycznie poprzez inteligentne poszukiwanie możliwych rozwiązań. Jednak proste, wyczerpujące wyszukiwanie rzadko jest przydatne lub wystarczające w przypadku większości rzeczywistych problemów. W latach dziewięćdziesiątych, Różne rodzaje popularne stały się wyszukiwarki internetowe, które opierały się na optymalizacji. W przypadku większości problemów możesz zgadnąć, a następnie sprecyzować zapytanie. Napisano różne algorytmy optymalizacyjne, które wspomagają proces wyszukiwania.

Logika

Logika pozwala na badanie argumentów. W sztucznej inteligencji służy do reprezentowania wiedzy, a także do rozwiązywania problemów. W badaniach nad sztuczną inteligencją wykorzystuje się różne rodzaje logiki. Logika pierwszego rzędu wykorzystuje kwantyfikatory i predykaty oraz pomaga w reprezentowaniu faktów i ich właściwości. Logika rozmyta to rodzaj logiki pierwszego rzędu, która pozwala znaleźć prawdziwość stwierdzenia, które będzie reprezentowane jako 1 (prawda) lub 0 (fałsz).

Teoria prawdopodobieństwa

Prawdopodobieństwo jest sposobem wyrażania wiedzy. Pojęciu temu nadano znaczenie matematyczne w teorii prawdopodobieństwa, która jest szeroko stosowana w sztucznej inteligencji.

Sztuczna inteligencja i jej zastosowania

Sztuczna inteligencja jest obecnie wykorzystywana w wielu dziedzinach, w tym w modelowaniu, robotyce, rozpoznawaniu mowy, finansach i akcjach, diagnostyce medycznej, lotnictwie, bezpieczeństwie, grach itp.

Przyjrzyjmy się bliżej niektórym obszarom:

Hazard Kula: Istnieją maszyny, na których można grać w szachy poziom profesjonalny. AI ma również zastosowanie w różnych grach wideo.

Rozpoznawanie mowy: Komputery i roboty rozumiejące język na poziomie ludzkim mają wbudowaną sztuczną inteligencję.

Symulatory: Modelowanie to imitacja czegoś prawdziwego. Jest używany w wielu kontekstach, od gier wideo po lotnictwo. Symulatory obejmują symulatory lotu dla pilotów przygotowujących się do pilotowania „sterowca”.

Robotyka: Roboty stały się powszechne w wielu branżach, ponieważ okazały się bardziej wydajne niż ludzie, szczególnie w przypadku powtarzalnych prac, podczas których ludzie tracą koncentrację.

Finanse: Banki i inne instytucje finansowe polegają na inteligentnym oprogramowaniu, które zapewnia dokładną analizę danych i pomaga w formułowaniu prognoz na ich podstawie.

Medycyna: Systemy sztucznej inteligencji są wykorzystywane w szpitalach do zarządzania harmonogramami pacjentów, zapewnienia rotacji personelu i dostarczania informacji medycznych. Sztuczna sieć neuronowa, będąca modelem matematycznym inspirowanym strukturą i/lub aspekty funkcjonalne biologiczne sieci neuronowe, pomaga w medycynie w ustaleniu diagnozy.

Sztuczna inteligencja znajduje zastosowanie w różnych dziedzinach i zastosowaniach. Systemy bezpieczeństwa, systemy rozpoznawania tekstu i mowy, eksploracja danych, filtrowanie spamu e-mailowego i mnóstwo innych przykładów. Brytyjska grupa telekomunikacyjna wykorzystała wyszukiwanie heurystyczne w aplikacji do planowania, która planuje pracę ponad dwudziestu tysięcy inżynierów. Sztuczna inteligencja znalazła także zastosowanie w branży transportu ciężarowego, gdzie opracowano sterowniki typu fuzzy logic do automatycznych skrzyń biegów w samochodach.

Wyzwania stojące przed twórcami sztucznej inteligencji

W ciągu ostatnich sześćdziesięciu lat naukowcy aktywnie pracowali nad naśladowaniem ludzkiej inteligencji, ale rozwój uległ spowolnieniu ze względu na wiele wyzwań związanych z symulowaniem sztucznej inteligencji. Niektóre z tych problemów to:

Baza wiedzy: liczba faktów, które dana osoba zna, jest po prostu za duża. Przygotowanie bazy danych, która będzie zawierać całą wiedzę tego świata, jest zadaniem niezwykle czasochłonnym.

Dedukcja, rozumowanie i rozwiązywanie problemów: Sztuczna inteligencja musi krok po kroku rozwiązać każdy problem. Zazwyczaj ludzie rozwiązują problemy w oparciu o intuicyjne oceny, a następnie tworzą plan działania, program. Sztuczna inteligencja robi powolne postępy w naśladowaniu ludzkich metod rozwiązywania problemów.

Przetwarzanie języka naturalnego: Język naturalny to język, którym posługują się ludzie. Jednym z głównych wyzwań stojących przed sztuczną inteligencją jest rozpoznawanie i zrozumienie tego, co mówią ludzie.

Planowanie: Planowanie ogranicza ludzi tylko dlatego, że potrafią myśleć. Umiejętność planowania i myślenia jak człowiek jest niezbędna inteligentnym agentom. Podobnie jak ludzie, muszą potrafić wizualizować przyszłość.

Pozytywne aspekty wykorzystania AI

Małe zastosowania sztucznej inteligencji możemy już dostrzec w naszych domach. Na przykład inteligentny telewizor, inteligentna lodówka itp. W przyszłości sztuczna inteligencja będzie obecna w każdym domu. Sztuczna inteligencja wraz z nanotechnologią lub innymi technologiami może doprowadzić do powstania nowych gałęzi przemysłu w obszarze nauki. Z pewnością rozwój sztucznej inteligencji sprawi, że stanie się ona częścią nas Życie codzienne. W niektórych miejscach pracy człowieka zastępują już roboty. W przemyśle militarnym sztuczna inteligencja umożliwi stworzenie różnorodnej nowoczesnej broni, np. robotów, która zmniejszy śmiertelność w przypadku wojen.

Negatywne aspekty wykorzystania AI

Chociaż sztuczna inteligencja ma wiele zalet, ma wiele wad.
Aby uzyskać więcej Poziom podstawowy wykorzystanie sztucznej inteligencji w codziennych zadaniach może prowadzić do lenistwa ludzi, a to może prowadzić do degradacji większości ludzi.

Zastosowanie sztucznej inteligencji i nanotechnologii w przemyśle militarnym z pewnością ma wiele pozytywnych aspektów, takich jak stworzenie idealnej tarczy ochronnej przed jakimkolwiek atakiem, ale ma też swoją ciemną stronę. Przy pomocy sztucznej inteligencji i nanotechnologii będziemy w stanie stworzyć bardzo potężną i niszczycielską broń, która nieostrożnie wykorzystana może doprowadzić do nieodwracalnych konsekwencji.

Masowe wykorzystanie sztucznej inteligencji doprowadzi do redukcji miejsc pracy dla ludzi.

Ponadto szybkie tempo rozwoju i zastosowania sztucznej inteligencji i robotyki może popchnąć Ziemię w stronę katastrofy ekologicznej. Nawet teraz marnuje się komponenty komputerowe i inne urządzenia elektryczne wyrządzają ogromne szkody naszej planecie.

Jeśli damy inteligencję maszynom, będą mogły ją w pełni wykorzystać. Inteligentne maszyny staną się mądrzejsze od swoich twórców, a to może doprowadzić do rezultatu, który został zademonstrowany w serii filmów Terminator.

Wnioski i przyszłe zastosowanie

Sztuczna inteligencja to obszar, w którym kontynuowanych jest wiele badań. Sztuczna inteligencja to dziedzina informatyki zajmująca się zrozumieniem natury inteligencji i budowaniem systemów komputerowych zdolnych do inteligentnych działań. Mimo że ludzie posiadają inteligencję, nie potrafią jej wykorzystać w maksymalnym możliwym stopniu. Maszyny będą mogły wykorzystać 100% swojej inteligencji, jeśli im ją zapewnimy. Jest to zarówno zaleta, jak i wada. Jesteśmy zależni od maszyn w niemal każdym zastosowaniu w życiu. Maszyny są obecnie częścią naszego życia i są używane wszędzie. Powinniśmy więc wiedzieć więcej o maszynach i być świadomi przyszłości, co może się wydarzyć, jeśli zapewnimy im inteligencję. Sztuczna inteligencja nie może być dobra ani zła. Zmienia się, gdy z niego korzystamy.

Od chwili uznania sztucznej inteligencji za dziedzinę naukową, a stało się to w połowie lat 50. ubiegłego wieku, twórcy inteligentnych systemów musieli rozwiązać wiele problemów. Tradycyjnie wszystkie zadania można podzielić na kilka klas: rozpoznawanie i tłumaczenie języka ludzkiego, automatyczne dowodzenie twierdzeń, tworzenie programów do gier, rozpoznawanie obrazów i kreatywność maszyn. Rozważmy pokrótce istotę każdej klasy problemów.

Dowód twierdzeń.

Automatyczne dowodzenie twierdzeń jest najstarszym zastosowaniem sztucznej inteligencji. W tym obszarze przeprowadzono wiele badań, których efektem było pojawienie się sformalizowanych algorytmów wyszukiwania i języków reprezentacji formalnej, takich jak PROLOG – logiczny język programowania i rachunek predykatów.

Automatyczne dowody twierdzeń są atrakcyjne, ponieważ opierają się na ogólności i rygorze logiki. Logika w systemie formalnym implikuje możliwość automatyzacji, co oznacza, że ​​jeśli wyobrazisz sobie zadanie i z nim związane Dodatkowe informacje w postaci zbioru aksjomatów logicznych i szczególnych przypadków problemu - jako twierdzenia wymagające dowodu, można uzyskać rozwiązanie wielu problemów. Na tej zasadzie opierają się systemy uzasadnień matematycznych i automatycznych dowodów twierdzeń. W ubiegłych latach wielokrotnie podejmowano próby napisania programu do automatycznego dowodzenia twierdzeń, jednak nigdy nie udało się stworzyć systemu umożliwiającego rozwiązywanie problemów jedną metodą. Każdy stosunkowo złożony system heurystyczny może generować wiele możliwych do udowodnienia twierdzeń, które są nieistotne, co powoduje, że programy muszą je udowadniać, dopóki nie zostaną odkryte właściwe. Doprowadziło to do przekonania, że ​​dużymi przestrzeniami można zarządzać jedynie za pomocą nieformalnych strategii dostosowanych do konkretnych sytuacji. W praktyce podejście to okazało się całkiem owocne i zostało wykorzystane, wraz z innymi, jako podstawa systemów ekspertowych.

Jednocześnie nie można pominąć rozumowania opartego na logice formalnej. Sformalizowane podejście pozwala rozwiązać wiele problemów. W szczególności za jego pomocą można sterować złożonymi systemami, sprawdzać poprawność programów komputerowych, projektować i testować obwody logiczne. Ponadto badacze zajmujący się automatycznym dowodzeniem twierdzeń opracowali potężną heurystykę polegającą na ocenie składniowej formy wyrażeń logicznych. W rezultacie możliwe stało się zmniejszenie poziomu złożoności przestrzeni poszukiwań bez uciekania się do opracowywania specjalnych strategii.

Automatyczny dowód twierdzeń interesuje naukowców także dlatego, że system można zastosować także do szczególnie złożonych problemów, choć nie bez interwencji człowieka. Obecnie programy często pełnią rolę asystentów. Eksperci dzielą zadanie na kilka podzadań, a następnie opracowują heurystyki, aby uporządkować możliwe przyczyny. Następnie program udowadnia lematy, testuje mniej istotne założenia i uzupełnia formalne aspekty dowodu ludzkiego.

Rozpoznawanie wzorców.

Rozpoznawanie wzorców polega na wyborze istotnych cech charakteryzujących dane źródłowe z ogólnego zbioru cech i na podstawie otrzymanych informacji przyporządkowaniu danych do określonej klasy.

Teoria rozpoznawania wzorców to dziedzina informatyki, której zadaniem jest opracowywanie podstaw i metod identyfikacji i klasyfikacji obiektów (obiektów, procesów, zjawisk, sytuacji, sygnałów itp.), z których każdy wyposażony jest w zestaw pewne znaki i właściwości. W praktyce dość często konieczna jest identyfikacja obiektów. Typową sytuacją jest rozpoznanie koloru sygnalizacji świetlnej i podjęcie decyzji, czy to zrobić ten moment Przejdź przez ulicę. Istnieją inne obszary, w których nie można obejść się bez rozpoznawania obiektów, na przykład digitalizacja sygnałów analogowych, sprawy wojskowe, systemy bezpieczeństwa itp., Dlatego dziś naukowcy nadal aktywnie pracują nad tworzeniem systemów rozpoznawania obrazu.

Prace prowadzone są w dwóch głównych kierunkach:

  • · Badanie, wyjaśnianie i modelowanie zdolności rozpoznawania właściwych istotom żywym.
  • · Opracowanie podstaw teoretycznych i metodologicznych do tworzenia urządzeń pozwalających na rozwiązywanie poszczególnych problemów dla zastosowań.

Problemy rozpoznawania formułuje się za pomocą języka matematycznego. O ile teoria sztucznych sieci neuronowych opiera się na uzyskiwaniu wyników w drodze eksperymentów, o tyle formułowanie problemów rozpoznawania wzorców odbywa się nie na podstawie eksperymentu, ale w oparciu o dowody matematyczne i logiczne rozumowanie.

Rozważmy klasyczne sformułowanie takiego problemu. Obiektów, względem których należy przeprowadzić klasyfikację, jest wiele. Zbiór składa się z podzbiorów lub klas. Dane: informacja opisująca zbiór, informacja o klasach oraz opis pojedynczego obiektu bez wskazania jego przynależności do konkretnej klasy. Zadanie: na podstawie dostępnych danych określ, do której klasy należy obiekt.

Jeśli problemy zawierają obrazy monochromatyczne, można je uznać za funkcje na płaszczyźnie. Funkcja będzie reprezentować formalny zapis obrazu i w każdym punkcie wyrażać pewną cechę tego obrazu - gęstość optyczną, przezroczystość, jasność itp. W tym przypadku modelem zbioru obrazu będzie zbiór funkcji na płaszczyźnie . Sformułowanie problemu rozpoznania zależy od tego, jakie powinny być etapy następujące po rozpoznaniu.

Do metod rozpoznawania wzorców zaliczają się eksperymenty F. Rosenblatta, który wprowadził koncepcję modelu mózgu. Celem eksperymentu jest pokazanie, jak powstają zjawiska psychologiczne w układzie fizycznym o znanych właściwościach funkcjonalnych i strukturze. Naukowiec opisał najprostsze eksperymenty rozpoznawcze, jednak ich cechą jest niedeterministyczny algorytm rozwiązania.

Najprostszy eksperyment, na podstawie którego można uzyskać istotną psychologicznie informację o układzie, wygląda następująco: perceptronowi zostaje przedstawiona sekwencja dwóch różnych bodźców, na każdy z nich musi w jakiś sposób zareagować, a reakcja musi być różne dla różnych bodźców. Cele takiego eksperymentu mogą być różne. Eksperymentator może stanąć przed zadaniem zbadania możliwości spontanicznej dyskryminacji przez system prezentowanych bodźców bez interwencji z zewnątrz lub odwrotnie, zbadania możliwości wymuszonego rozpoznania. W drugim przypadku eksperymentator uczy system klasyfikowania różnych obiektów, których może być więcej niż dwa. Doświadczenie edukacyjne przebiega w następujący sposób: perceptronowi prezentowane są obrazy, wśród których znajdują się przedstawiciele wszystkich klas do rozpoznania. Prawidłowa reakcja jest wzmacniana zgodnie z zasadami modyfikacji pamięci. Następnie eksperymentator podaje perceptronowi bodziec kontrolny i określa prawdopodobieństwo uzyskania danej reakcji dla obrazów danej klasy. Bodziec kontrolny może być taki sam jak jeden z obiektów prezentowanych w sekwencji treningowej lub różny od wszystkich prezentowanych obiektów. W zależności od tego uzyskuje się następujące wyniki:

  • · Jeżeli bodziec kontrolny różni się od wszystkich wcześniej zaprezentowanych bodźców treningowych, to oprócz czystej dyskryminacji w eksperymencie badane są elementy generalizacji.
  • · Jeżeli bodziec kontrolny powoduje pobudzenie pewnej grupy elementów zmysłowych, która nie pokrywa się z żadnym z elementów aktywowanych pod wpływem bodźców tej samej klasy przedstawionych wcześniej, wówczas eksperyment bada czyste uogólnienie i nie obejmuje badania rozpoznawczego.

Pomimo tego, że perceptrony nie są zdolne do czystego uogólniania, zadowalająco radzą sobie z zadaniami rozpoznawania, szczególnie w przypadkach, gdy prezentowane są obrazy, w których perceptron ma już pewne doświadczenie.

Rozpoznawanie mowy ludzkiej i tłumaczenie maszynowe.

Do długoterminowych celów sztucznej inteligencji należy tworzenie programów, które potrafią rozpoznawać ludzki język i wykorzystywać go do konstruowania znaczących wyrażeń. Zdolność rozumienia i używania języka naturalnego jest podstawową cechą ludzkiej inteligencji. Skuteczna automatyzacja tej możliwości znacznie poprawiłaby wydajność komputerów. Wiele programów napisano w celu zrozumienia języka naturalnego i z powodzeniem zastosowano je w ograniczonych kontekstach, ale nadal nie ma systemów, które potrafiłyby używać języków naturalnych z taką samą ogólnością i elastycznością jak ludzie. Faktem jest, że proces rozumienia języka naturalnego nie polega jedynie na prostym rozkładaniu zdań na części składowe i sprawdzaniu znaczeń poszczególnych słów w słownikach. Programy z powodzeniem radzą sobie z tym zadaniem. Aby posługiwać się mową ludzką, potrzebujesz rozległej wiedzy na temat tematu rozmowy, idiomów z nią związanych, ponadto potrzebujesz umiejętności rozumienia niejasności, przeoczeń, profesjonalizmu, żargonu, wyrażeń potocznych i wielu innych, które są nieodłącznie związane z normalną mową ludzką .

Przykładem jest rozmowa o piłce nożnej, podczas której używane są słowa takie jak „napastnik”, „podanie”, „podanie”, „rzut wolny”, „obrońca”, „napastnik”, „kapitan” i inne. Każde z tych słów charakteryzuje się zestawem znaczeń i pojedynczo słowa są w miarę zrozumiałe, ale zdanie z nich utworzone będzie niezrozumiałe dla każdego, kto nie interesuje się piłką nożną i nie ma pojęcia o historii, zasadach i zasadach tej gry . Zatem zrozumienie i używanie ludzkiego języka wymaga pewnej wiedzy ogólnej, a jednym z głównych wyzwań w automatyzacji rozumienia i używania naturalnego języka ludzkiego jest gromadzenie i systematyzacja takiej wiedzy.

Ponieważ znaczenia semantyczne są bardzo szeroko stosowane w sztucznej inteligencji, naukowcy opracowali szereg metod, które pozwalają w pewnym stopniu je ustrukturyzować. Jednak większość pracy wykonywana jest w obszarach problemowych, które są dobrze poznane i wyspecjalizowane. Przykładem jest technika „mikroświata”. Jednym z pierwszych programów, w których go zastosowano, był program SHRDLU opracowany przez Terry'ego Winograda, będący jednym z systemów rozumienia mowy ludzkiej. Możliwości programu były dość ograniczone i sprowadzały się do „rozmowy” na temat lokalizacji bloków różne kolory i formularzy, a także planowanie prostych działań. Program dostarczał odpowiedzi na pytania typu: „Jakiego koloru jest piramida na bloku krzyżowym?” i może wydawać polecenia typu „Umieść niebieski klocek na czerwonym”. Problemami takimi często zajmowali się badacze sztucznej inteligencji, a później zaczęto je nazywać „światem klocków”.

Mimo że program SHRDLU skutecznie „rozmawiał” na temat lokalizacji bloków, nie został wyposażony w umiejętność abstrahowania od tego „mikroświata”. Stosowano zbyt proste techniki, które nie były w stanie przekazać organizacji semantycznej obszarów tematycznych o większej złożoności.

Obecne prace w zakresie rozumienia i stosowania języków naturalnych mają na celu głównie znalezienie formalizmów reprezentacyjnych, które są na tyle ogólne, że można je dostosować do specyficznych struktur danych dziedzin i zastosować do szerokiego zakresu zastosowań. Większość istniejących technik, będących modyfikacjami sieci semiotycznych, jest badana i wykorzystywana do pisania programów zdolnych do rozpoznawania języka naturalnego w wąskich obszarach tematycznych. Jednocześnie współczesne możliwości nie pozwalają na stworzenie uniwersalnego programu zdolnego zrozumieć ludzką mowę w całej jej różnorodności.

Wśród różnorodnych problemów rozpoznawania wzorców można wyróżnić:

  • · Klasyfikacja dokumentów
  • · Identyfikacja złóż kopalin
  • Rozpoznawanie obrazu
  • · Rozpoznawanie kodów kreskowych
  • · Rozpoznawanie postaci
  • · Rozpoznawanie mowy
  • · Rozpoznawanie twarzy
  • · Rozpoznawanie tablic rejestracyjnych

Sztuczna inteligencja w programach do gier.

Sztuczna inteligencja w grach obejmuje nie tylko tradycyjne metody sztucznej inteligencji, ale także algorytmy z informatyki w ogóle, grafiki komputerowej, robotyki i teorii sterowania. Sposób zaimplementowania sztucznej inteligencji wpływa nie tylko na wymagania systemowe, ale także na budżet gry, dlatego deweloperzy muszą balansować, starając się, aby sztuczna inteligencja gry została stworzona minimalnym kosztem, a jednocześnie była ciekawa i mało wymagająca na zasobach. Wymaga to zupełnie innego podejścia niż tradycyjna sztuczna inteligencja. W szczególności szeroko stosowane są emulacje, oszustwa i różne uproszczenia. Przykład: cechą strzelanek pierwszoosobowych jest zdolność botów do dokładnego poruszania się i natychmiastowego celowania, ale jednocześnie osoba nie ma ani jednej szansy, więc zdolności botów są sztucznie ograniczane. Jednocześnie na poziomie rozmieszczone są punkty kontrolne, dzięki czemu boty mogą działać zespołowo, organizować zasadzki itp. obraz sztucznej inteligencji

W grach komputerowych sterowanych przez sztuczną inteligencję gier występują następujące kategorie postaci:

  • · moby - postacie z niski poziom inteligencja, wrogie ludzkiemu graczowi. Gracze niszczą moby, aby przejść przez terytorium, zdobyć artefakty i punkty doświadczenia.
  • · Postacie niezależne - zazwyczaj są to postacie przyjazne lub neutralne dla gracza.
  • · boty to postacie wrogo nastawione do graczy i najtrudniejsze do zaprogramowania. Ich możliwości są zbliżone do możliwości postaci z gry. W dowolnym momencie przeciwko graczowi występuje pewna liczba botów.

W grze komputerowej istnieje wiele obszarów, w których wykorzystuje się szeroką gamę algorytmów heurystycznych sztucznej inteligencji w grach. Sztuczna inteligencja w grach jest najczęściej stosowana jako sposób kontrolowania postaci niezależnych. Inną, nie mniej powszechną metodą kontroli jest skrypt. Innym oczywistym zastosowaniem sztucznej inteligencji w grach, zwłaszcza w grach strategicznych czasu rzeczywistego, jest odnajdywanie ścieżki, czyli metoda określania, w jaki sposób postać niezależna może przedostać się z jednego punktu na mapie do drugiego. W takim przypadku należy wziąć pod uwagę przeszkody, teren i możliwą „mgłę wojny”. Dynamiczne równoważenie mobów również nie jest kompletne bez użycia sztucznej inteligencji. Wiele gier eksplorowało koncepcję nieprzewidywalnej inteligencji. Są to takie gry jak Nintendogs, Black & White, Creatures czy dobrze znana zabawka Tamagotchi. W tych grach bohaterami są zwierzaki, których zachowanie zmienia się w zależności od działań wykonywanych przez gracza. Bohaterowie wydają się zdolni do uczenia się, podczas gdy w rzeczywistości ich działania są wynikiem wyboru z ograniczonego zestawu decyzji.

Wielu programistów gier uważa każdą technikę tworzącą iluzję inteligencji za część sztucznej inteligencji w grach. Jednak takie podejście nie jest do końca poprawne, ponieważ te same techniki można zastosować nie tylko w silnikach AI gier. Przykładowo przy tworzeniu botów wykorzystywane są algorytmy z wprowadzoną do nich informacją o ewentualnych przyszłych kolizjach, dzięki czemu boty nabywają „umiejętność” unikania tych kolizji. Ale te same techniki są ważnym i niezbędnym elementem silnika fizycznego. Inny przykład: ważnym elementem systemu namierzania bota są dane dotyczące wody i te same dane są szeroko wykorzystywane w silniku graficznym do renderowania. Ostatnim przykładem jest skrypt. Narzędzie to można z powodzeniem wykorzystać we wszystkich aspektach tworzenia gier, jednak najczęściej traktowane jest jako jeden ze sposobów kontrolowania poczynań postaci niezależnych.

Zdaniem purystów określenie „sztuczna inteligencja w grach” nie ma prawa istnieć, gdyż jest przesadą. Ich głównym argumentem jest to, że AI w grach wykorzystuje tylko niektóre obszary nauki o klasycznej sztucznej inteligencji. Należy też wziąć pod uwagę, że celem AI jest tworzenie systemów samouczących się, a nawet tworzenie sztucznej inteligencji zdolnej do rozumowania, choć często ogranicza się ona do heurystyki i zestawu kilku praktycznych zasad, które wystarczą, aby stworzyć dobrą rozgrywkę i zapewni graczowi żywe wrażenia i poczucie gry.

Obecnie twórcy gier komputerowych wykazują zainteresowanie akademicką sztuczną inteligencją, a społeczność akademicka z kolei zaczyna interesować się grami komputerowymi. Nasuwa się pytanie, w jakim stopniu gry i klasyczna sztuczna inteligencja różnią się od siebie. Jednocześnie sztuczna inteligencja w grach jest nadal uważana za jedną z gałęzi klasycznej inteligencji. Wynika to z faktu, że sztuczna inteligencja ma różne obszary zastosowań, które różnią się od siebie. Jeśli mówimy o inteligencji gier, ważną różnicą jest tutaj możliwość oszukania w celu rozwiązania pewnych problemów w „legalny” sposób. Z jednej strony wadą oszustwa jest to, że często prowadzi ono do nierealistycznych zachowań postaci i dlatego nie zawsze można je zastosować. Z drugiej strony, sama możliwość takiego oszustwa stanowi istotną różnicę między sztuczną inteligencją w grach.

Kolejnym ciekawym zadaniem sztucznej inteligencji jest nauczenie komputera gry w szachy. W jego rozwiązanie zaangażowani byli naukowcy z całego świata. Specyfiką tego zadania jest to, że wykazanie zdolności logicznych komputera jest możliwe tylko w obecności prawdziwego przeciwnika. Pierwsza taka demonstracja odbyła się w 1974 roku w Sztokholmie, gdzie odbyły się Mistrzostwa Świata w szachach wśród programów szachowych. Konkurs wygrał program „Kaissa”, stworzony przez radzieckich naukowców z Instytutu Problemów Zarządzania Akademii Nauk ZSRR w Moskwie.

Sztuczna inteligencja w kreatywności maszyn.

Natura ludzkiej inteligencji nie została jeszcze dostatecznie zbadana, a stopień, w jakim zbadano naturę ludzkiej kreatywności, jest jeszcze mniejszy. Jednak jednym z obszarów sztucznej inteligencji jest kreatywność maszyn. Nowoczesne komputery tworzą dzieła muzyczne, literackie i artystyczne, a przemysł gier komputerowych i filmowy od dawna wykorzystuje realistyczne obrazy tworzone przez maszyny. Istniejące programy tworzą różnorodne obrazy, które mogą być łatwo dostrzeżone i zrozumiane przez człowieka. Jest to szczególnie istotne w przypadku wiedzy intuicyjnej, której formalna weryfikacja wymagałaby sporego wysiłku umysłowego. W ten sposób problemy muzyczne są z powodzeniem rozwiązywane za pomocą języka programowania, jednym z nich jest język CSound. Specjalne oprogramowanie, za pomocą którego tworzone są dzieła muzyczne, to programy do kompozycji algorytmicznej, interaktywne systemy kompozycji, systemy syntezy i przetwarzania dźwięku.

Systemy eksperckie.

Rozwój nowoczesnych systemów ekspertowych jest prowadzony przez badaczy od początku lat 70. XX wieku, a na początku lat 80. zaczęto opracowywać systemy ekspertowe na zasadach komercyjnych. Prototypami systemów ekspertowych, zaproponowanymi w 1832 roku przez rosyjskiego uczonego S. N. Korsakowa, były urządzenia mechaniczne zwane „inteligentnymi maszynami”, które umożliwiały znalezienie rozwiązania w oparciu o zadane warunki. Analizowano np. objawy choroby zaobserwowane u pacjenta i na podstawie wyników tej analizy proponowano najodpowiedniejsze leki.

Informatyka uwzględnia systemy ekspertowe wraz z bazami wiedzy. Systemy to modele zachowań eksperckich oparte na zastosowaniu procedur decyzyjnych i logicznych wniosków. Bazy wiedzy są traktowane jako zbiór reguł logicznego wnioskowania i faktów, które są bezpośrednio związane z wybranym obszarem działalności.

Pod koniec ubiegłego wieku rozwinęła się pewna koncepcja systemów ekspertowych, głęboko skupiona na ogólnie przyjętym wówczas tekstowym interfejsie człowiek-maszyna. Obecnie koncepcja ta przeszła poważny kryzys, najwyraźniej w związku z tym, że w aplikacjach użytkownika interfejs tekstowy został zastąpiony graficznym. Ponadto relacyjny model danych i „klasyczne” spojrzenie na budowanie systemów ekspertowych nie pasują do siebie. W konsekwencji organizacja baz wiedzy systemów ekspertowych nie może być przeprowadzona efektywnie, przynajmniej przy wykorzystaniu nowoczesnych przemysłowych systemów zarządzania bazami danych. Źródła literackie i internetowe dostarczają wielu przykładów systemów ekspertowych zwanych „powszechnymi” lub „dobrze znanymi”. Tak naprawdę wszystkie te systemy ekspertowe powstały jeszcze w latach 80-tych ubiegłego wieku i do tej pory albo przestały istnieć, albo są beznadziejnie przestarzałe i istnieją dzięki kilku entuzjastom. Z drugiej strony twórcy nowoczesnego oprogramowania często nazywają swoje dzieła systemami eksperckimi. Takie stwierdzenia to nic innego jak chwyt marketingowy, gdyż w rzeczywistości produkty te nie są systemami eksperckimi (przykładem może być którykolwiek z komputerowych systemów odniesienia prawnego). Entuzjaści próbują łączyć podejście do tworzenia interfejsu użytkownika z „klasycznym” podejściem do tworzenia systemów ekspertowych. Próby te znajdują jednak odzwierciedlenie w takich projektach jak CLIPS.NET, CLIPS Java Native Interface i innych duże firmy Firmom programistycznym nie spieszy się z finansowaniem takich projektów, dlatego rozwój nie wychodzi poza fazę eksperymentalną.

Różnorodność obszarów, w których można zastosować systemy oparte na wiedzy, można podzielić na klasy: diagnostyka medyczna, planowanie, prognozowanie, monitorowanie i kontrola, szkolenia, interpretacja, diagnostyka usterek w urządzeniach elektrycznych i mechanicznych, szkolenia. Przyjrzyjmy się każdej z tych klas bardziej szczegółowo.

a) Medyczne systemy diagnostyczne.

Za pomocą takich systemów określają, jak różne zaburzenia czynności organizmu i ich możliwe przyczyny. Najbardziej znanym systemem diagnostycznym jest MYCIN. Służy do diagnozowania zapalenia opon mózgowo-rdzeniowych i infekcje bakteryjne, a także do monitorowania stanu pacjentów cierpiących na te choroby. Pierwsza wersja systemu powstała w latach 70-tych. Dziś jego możliwości znacznie się poszerzyły: system stawia diagnozy na tym samym profesjonalnym poziomie co specjalista medyczny i może być stosowany w różnych dziedzinach medycyny.

b) Systemy predykcyjne.

Systemy mają za zadanie przewidywać zdarzenia lub skutki zdarzeń w oparciu o dostępne dane charakteryzujące aktualną sytuację lub stan obiektu. Stąd program „Podbój Wall Street”, który wykorzystuje w swojej pracy metody statystyczne algorytmów, potrafi analizować warunki rynkowe i opracowywać plan inwestycji kapitałowych. Program wykorzystuje algorytmy i procedury tradycyjnego programowania, dlatego nie można go zaliczyć do systemu opartego na wiedzy. Już dziś istnieją programy, które na podstawie analizy dostępnych danych potrafią przewidzieć przepływ pasażerów, plony i pogodę. Takie programy są dość proste, a niektórych z nich można używać na zwykłych komputerach osobistych. Wciąż jednak brak jest systemów eksperckich, które na podstawie danych o warunkach rynkowych mogłyby sugerować sposób podwyższenia kapitału.

c) Planowanie.

Systemy planowania są zaprojektowane tak, aby rozwiązywać problemy z dużą liczbą zmiennych w celu osiągnięcia określonych wyników. Po raz pierwszy w sferze komercyjnej systemy tego typu zastosowała damasceńska firma Informat. Dyrekcja firmy zleciła montaż 13 stanowisk w holu urzędu, co zrealizowała bezpłatne konsultacje dla kupujących, którzy chcą kupić komputer. Maszyny pomogły nam dokonać wyboru najlepiej odpowiadającego budżetowi i życzeniom kupującego. Systemy eksperckie Boeing wykorzystywał także m.in. do naprawy helikopterów, identyfikacji przyczyn awarii silników lotniczych czy projektowania stacji kosmicznych. DEC stworzył system ekspercki XCON, który jest w stanie identyfikować i rekonfigurować systemy komputerowe VAX w oparciu o wymagania klienta. DEC pracuje obecnie nad potężniejszym systemem XSEL, który zawiera bazę wiedzy XCON. Celem stworzenia systemu jest pomoc konsumentom w wyborze systemu obliczeniowego o wymaganej konfiguracji. Różnica między XEL i XCON polega na tym, że jest interaktywny.

d) Interpretacja.

Systemy interpretacyjne potrafią wyciągać wnioski na podstawie wyników obserwacji. Jednym z najbardziej znanych systemów interpretacyjnych jest system PROSPECTOR. Działa w oparciu o dane oparte na wiedzy dziewięciu ekspertów. Skuteczność systemu można ocenić na jednym przykładzie: stosując dziewięć różnych metod badawczych, system odkrył złoże rudy, którego żaden ekspert nie był w stanie przewidzieć. Innym dobrze znanym systemem typów interpretacyjnych jest HASP/SIAP. Wykorzystuje dane z akustycznych systemów śledzenia i wykorzystuje je do określania lokalizacji statków na Pacyfiku oraz ich typów.

e) Inteligentne systemy kontroli i zarządzania.

Systemy ekspertowe z powodzeniem wykorzystywane są w kontroli i zarządzaniu. Potrafią analizować dane otrzymane z kilku źródeł i podejmować decyzje na podstawie wyników analizy. Systemy takie są w stanie prowadzić monitoring medyczny i kontrolę ruchu statków powietrznych, ponadto znajdują zastosowanie w elektrowniach jądrowych. Pomagają także regulować działalność finansową przedsiębiorstwa i opracowywać rozwiązania w sytuacjach krytycznych.

f) Diagnozowanie i rozwiązywanie problemów urządzeń elektrycznych i mechanicznych.

Systemy oparte na wiedzy znajdują zastosowanie w takich przypadkach jak:

naprawa lokomotyw spalinowych, samochodów i innych urządzeń elektrycznych i mechanicznych;

diagnostyka i usuwanie błędów i usterek w oprogramowaniu i sprzęcie komputerowym.

I) Systemy komputerowe szkolenie.

Wykorzystanie systemów opartych na wiedzy do celów edukacyjnych jest dość efektywne. System analizuje zachowanie i aktywność obiektu oraz na podstawie otrzymanych informacji zmienia bazę wiedzy. Najprostszy przykład takie szkolenie - gra komputerowa, w którym poziomy stają się coraz trudniejsze wraz ze wzrostem umiejętności gracza. Ciekawy system szkoleniowy EURISCO opracował D. Lenat. Wykorzystuje proste heurystyki. System został zastosowany w grze symulacyjnej walczący. Istotą zabawy jest ustalenie optymalnego składu flotylli, która przy zachowaniu wielu zasad mogłaby zadawać porażki. System skutecznie poradził sobie z tym zadaniem, włączając w skład flotylli jeden mały statek i kilka statków zdolnych do przeprowadzenia ataku. Zasady gry zmieniały się co roku, ale system EURISCO niezmiennie wygrywał przez trzy lata.

Istnieje wiele systemów ekspertowych, które ze względu na zawartość wiedzy można podzielić na kilka typów jednocześnie. Na przykład system wykonujący planowanie może być również systemem uczącym się. Potrafi określić poziom wiedzy ucznia i na tej podstawie stworzyć program nauczania. Systemy sterowania służą do planowania, prognozowania, diagnostyki i sterowania. Systemy przeznaczone do ochrony domu lub mieszkania potrafią monitorować zmiany zachodzące w otoczeniu, przewidywać rozwój sytuacji i sporządzać plan dalszego działania. Na przykład okno się otworzyło i złodziej próbuje przez nie wejść do pokoju, dlatego należy wezwać policję.

Powszechne stosowanie systemów ekspertowych rozpoczęło się w latach 80. XX wieku, kiedy po raz pierwszy wprowadzono je na rynek. ES znajdują zastosowanie w wielu obszarach, m.in. w biznesie, nauce, technologii, produkcji i innych gałęziach przemysłu charakteryzujących się bardzo specyficzną tematyką. W tym kontekście „dobrze zdefiniowany” oznacza, że ​​można podzielić przebieg rozumowania na poszczególne etapy i w ten sposób można rozwiązać każdy problem mieszczący się w danym obszarze. Stąd, podobne działania Może to zrobić także program komputerowy. Można śmiało powiedzieć, że wykorzystanie możliwości sztucznej inteligencji otwiera przed ludzkością nieskończone możliwości.

Wśród najważniejszych klas zadań, jakie postawiono przed twórcami systemów inteligentnych od czasu zdefiniowania sztucznej inteligencji jako kierunku naukowego (od połowy lat 50. XX w.), należy wyróżnić: obszary sztucznej inteligencji, które rozwiązują trudne do sformalizowania problemy: dowód twierdzeń, rozpoznawanie obrazów, tłumaczenie maszynowe i rozumienie mowy ludzkiej, programy gier, kreatywność maszyn, systemy ekspertowe. Rozważmy pokrótce ich istotę.

Kierunki sztucznej inteligencji

Dowód twierdzeń. Badanie technik dowodzenia twierdzeń odegrało ważną rolę w rozwoju sztucznej inteligencji. Wiele nieformalnych problemów, na przykład diagnostyka medyczna, rozwiązuje się przy użyciu podejść metodologicznych, które były stosowane do automatyzacji dowodzenia twierdzeń. Znalezienie dowodu twierdzenia matematycznego wymaga nie tylko wyciągnięcia wniosków z hipotez, ale także stworzenia intuicyjnych założeń co do tego, które twierdzenia pośrednie należy udowodnić w celu uzyskania ogólnego dowodu głównego twierdzenia.

Rozpoznawanie obrazu. Zastosowanie sztucznej inteligencji do rozpoznawania obrazów umożliwiło stworzenie praktycznie działających systemów identyfikacji obiektów graficznych w oparciu o podobne cechy. Za cechy można uznać wszelkie cechy obiektów, które mają zostać rozpoznane. Cechy muszą być niezmienne w stosunku do orientacji, rozmiaru i kształtu obiektów. Alfabet funkcji jest tworzony przez twórcę systemu. Jakość rozpoznawania w dużej mierze zależy od tego, jak dobrze opracowany jest alfabet cech. Rozpoznanie polega na uzyskaniu a priori wektora cech dla odrębnego obiektu wybranego na obrazie, a następnie ustaleniu, któremu ze standardów alfabetu cech odpowiada ten wektor.

Tłumaczenie maszynowe i rozumienie mowy ludzkiej. Zadanie analizy zdań mowy ludzkiej za pomocą słownika jest typowym zadaniem dla systemów sztucznej inteligencji. Aby rozwiązać ten problem, stworzono język pośredni, ułatwiający porównywanie fraz z inne języki. Następnie ten język pośredni przekształcił się w model semantyczny reprezentujący znaczenia tłumaczonych tekstów. Ewolucja modelu semantycznego doprowadziła do powstania języka wewnętrznej reprezentacji wiedzy. W rezultacie, nowoczesne systemy analizuj teksty i frazy w czterech głównych etapach: analiza morfologiczna, analiza syntaktyczna, semantyczna i pragmatyczna.

Programy do gier. Większość programów do gier opiera się na kilku podstawowych ideach sztucznej inteligencji, takich jak iteracja i samouczenie się. Jednym z najciekawszych problemów z zakresu programów do gier wykorzystujących metody sztucznej inteligencji jest nauczenie komputera gry w szachy. Została założona już w początkach informatyki, pod koniec lat 50-tych.

W szachach istnieją pewne poziomy umiejętności, stopnie jakości gry, które mogą zapewnić jasne kryteria oceny intelektualnego rozwoju systemu. Dlatego szachy komputerowe są aktywnie badane przez naukowców z całego świata, a wyniki ich osiągnięć są wykorzystywane w innych osiągnięciach intelektualnych, które mają realne znaczenie praktyczne.

W 1974 roku po raz pierwszy w ramach cyklicznego kongresu IFIP (Międzynarodowej Federacji Przetwarzania Informacji) w Sztokholmie odbyły się mistrzostwa świata programów szachowych. Zwycięzcą tego konkursu został program szachowy „Kaissa”. Powstał w Moskwie, w Instytucie Problemów Zarządzania Akademii Nauk ZSRR.

Twórczość maszynowa. Jednym z obszarów zastosowań sztucznej inteligencji jest m.in systemy oprogramowania, potrafiący samodzielnie tworzyć muzykę, poezję, opowiadania, artykuły, dyplomy, a nawet rozprawy doktorskie. Obecnie istnieje cała klasa muzycznych języków programowania (na przykład język C-Sound). Do różnych zadań muzycznych stworzono specjalne oprogramowanie: systemy przetwarzania dźwięku, syntezę dźwięku, interaktywne systemy kompozycji, programy do kompozycji algorytmicznej.

Systemy eksperckie. Metody sztucznej inteligencji znalazły zastosowanie przy tworzeniu zautomatyzowanych systemów doradczych czy systemów ekspertowych. Pierwsze systemy ekspertowe jako narzędzia badawcze powstały w latach sześćdziesiątych XX wieku.

Były to systemy sztucznej inteligencji zaprojektowane specjalnie do rozwiązywania złożonych problemów w wąskim obszarze tematycznym, takim jak diagnostyka medyczna chorób. Klasycznym celem tego kierunku było początkowo stworzenie systemu sztucznej inteligencji ogólnego przeznaczenia, który byłby w stanie rozwiązać każdy problem bez specjalistycznej wiedzy z danej dziedziny. Ze względu na ograniczone zasoby obliczeniowe problem ten okazał się zbyt złożony, aby można go było rozwiązać z akceptowalnym wynikiem.

Komercyjne wdrożenia systemów ekspertowych miało miejsce na początku lat 80. XX wieku i od tego czasu systemy ekspertowe stały się powszechne. Są stosowane w biznesie, nauce, technologii, produkcji i wielu innych obszarach, w których istnieje dobrze zdefiniowany obszar tematyczny. Główne znaczenie wyrażenia „dobrze zdefiniowany” polega na tym, że ekspert będący człowiekiem jest w stanie określić etapy rozumowania, za pomocą których można rozwiązać dowolny problem z danej dziedziny. Oznacza to, że podobne czynności może wykonać program komputerowy.

Teraz możemy to śmiało powiedzieć wykorzystanie systemów sztucznej inteligencji otwiera szerokie granice.

Obecnie systemy ekspertowe są jednym z najbardziej udanych zastosowań technologii sztucznej inteligencji. Dlatego zalecamy zapoznanie się z.

MINISTERSTWO EDUKACJI I NAUKI RF

Międzynarodowy Instytut „INFO-Rusia”

PRACA KURSOWA

Dyscyplina:

Badania systemów sterowania

Temat: Obszary zastosowań sztucznej inteligencji w przedsiębiorstwie

Bałatskaya E.N.

Wstęp

2. Sztuczna inteligencja: obszary zastosowań

3. Sztuczna inteligencja i perspektywy jej rozwoju

Wniosek

Słowniczek


Wstęp

Początki nauki o sztucznej inteligencji sięgają połowy XX wieku. Od tego czasu naukowcy w wielu laboratoriach badawczych pracują nad stworzeniem komputerów, które będą w stanie myśleć na tym samym poziomie co ludzie. W tamtym czasie istniały już przesłanki do pojawienia się sztucznej inteligencji. W ten sposób psychologowie stworzyli model ludzkiego mózgu i badali procesy myślenia. Matematycy stworzyli teorię algorytmów, która stała się podstawą matematycznej teorii obliczeń, uporządkowano i ustrukturyzowano wiedzę o świecie, rozwiązano problemy obliczeń optymalnych i stworzono pierwsze komputery.

Nowe maszyny potrafiły wykonywać obliczenia znacznie szybciej niż ludzie, dlatego naukowcy pomyśleli o możliwości stworzenia komputerów, które osiągnęłyby poziom rozwoju człowieka. W 1950 roku angielski naukowiec Alan Turing opublikował artykuł „Czy maszyna może myśleć?” W artykule tym proponuje określenie stopnia inteligencji maszyny za pomocą opracowanego przez siebie testu, który później stał się znany jako „test Turinga”.

Inni naukowcy również zajmowali się tworzeniem sztucznej inteligencji, jednak musieli zmierzyć się z szeregiem problemów, których nie dało się rozwiązać w ramach tradycyjnej informatyki. Okazało się, że należy przede wszystkim zbadać mechanizmy percepcji zmysłowej, przyswajania informacji, a także naturę języka. Naśladowanie pracy mózgu okazało się niezwykle trudne, gdyż wymagałoby to odtworzenia pracy miliardów oddziałujących ze sobą neuronów. Ale nawet więcej wymagające zadanie Zamiast naśladować pracę mózgu, okazało się badaniem zasad i mechanizmów jego funkcjonowania. Ten problem, z którym zmierzyli się badacze inteligencji, poruszył teoretyczną stronę psychologii. Naukowcy wciąż nie mogą osiągnąć konsensusu co do tego, czym jest inteligencja. Niektórzy uważają, że umiejętność rozwiązywania problemów o dużej złożoności jest oznaką inteligencji; dla innych inteligencja to przede wszystkim umiejętność uczenia się, uogólniania i analizowania informacji; jeszcze inni uważają, że jest to umiejętność skutecznego współdziałania ze światem zewnętrznym, umiejętność komunikowania się, postrzegania i rozumienia otrzymywanych informacji.

W ramach zajęć przedmiotem badań jest sztuczna inteligencja. Przedmiot badań - możliwe sposoby jego doskonalenie i rozwój.

Cel pracy: identyfikacja obszarów działalności człowieka, w których można zastosować sztuczną inteligencję.

W toku badań prowadzonych w ramach tej pracy oczekuje się rozwiązania kilku problemów:

) Rozważ historię sztucznej inteligencji;

) Identyfikacja głównych celów tworzenia sztucznej inteligencji;

) Zaznajomienie czytelnika z rodzajami zastosowań sztucznej inteligencji we współczesnym świecie;

) Zbadanie obiecujących obszarów, w których można zastosować sztuczną inteligencję;

) Zastanów się, jak może wyglądać przyszłość przy wykorzystaniu sztucznej inteligencji.

Prezentowana praca dydaktyczna może zainteresować każdego zainteresowanego historią powstania i rozwoju sztucznej inteligencji, a ponadto może służyć jako pomoc dydaktyczna.

1. Znaczenie terminu „sztuczna inteligencja”

Ludzkość po raz pierwszy usłyszała o sztucznej inteligencji ponad 50 lat temu. Stało się to na konferencji zorganizowanej w 1956 roku na Uniwersytecie Dartmouth, gdzie John McCarthy podał terminowi jasną i precyzyjną definicję. „Sztuczna inteligencja to nauka o tworzeniu inteligentnych maszyn i programów komputerowych. Na potrzeby tej nauki komputery służą zrozumieniu cech ludzkiej inteligencji, jednocześnie badanie AI nie powinno ograniczać się do stosowania biologicznie wiarygodnych metod.

Podobnie jak inne nauki stosowane, nauka o sztucznej inteligencji jest reprezentowana przez część teoretyczną i eksperymentalną. W praktyce „Sztuczna inteligencja” zajmuje pozycję pośrednią pomiędzy informatyką a takimi dyscyplinami jak psychologia poznawczo-behawioralna czy neurofizjologia. Jeśli chodzi o podstawę teoretyczną, służy jej „Filozofia sztucznej inteligencji”, ale dopóki nie pojawią się znaczące wyniki w tym obszarze, teoria ta nie ma samodzielnego znaczenia. Jednak już teraz konieczne jest rozróżnienie nauki o sztucznej inteligencji od innych dyscyplin i technik teoretycznych (robotyka, algorytmika, matematyczna, fizjologiczna), które mają niezależne znaczenie.

Obecnie rozwój AI przebiega w dwóch kierunkach: neurocybernetyki i cybernetyki czarnej skrzynki. Jeden z kierunków – neurocybernetyka, czyli sztuczna inteligencja, opiera się na symulacji pracy ludzki mózg wykorzystujące systemy sztucznej inteligencji zwane sieciami neuronowymi lub sieciami neuronowymi. Drugi kierunek AI – cybernetyka czarnej skrzynki, czyli inteligencja maszynowa, zajmuje się poszukiwaniem i rozwojem algorytmów skuteczne rozwiązanie zadania intelektualne z wykorzystaniem istniejących modeli komputerowych. W tym kierunku najważniejsza nie jest konstrukcja urządzenia, ale zasada jego działania: reakcja „myślącej” maszyny na wpływy wejściowe powinna być taka sama jak reakcja ludzkiego mózgu.

O sztucznej inteligencji napisano wiele książek, jednak żaden autor nie daje jednoznacznej odpowiedzi na pytanie, czym zajmuje się ta nauka. Większość autorów rozważa tylko jedną definicję AI, rozważając osiągnięcia naukowe jedynie w świetle tę definicję. Następny problem dotyczy natury ludzkiej inteligencji i jej statusu: w filozofii nie ma jeszcze dla niej jednoznacznego kryterium. Nie ma jednego podejścia do określania stopnia „inteligencji” maszyny. Istnieje jednak wiele hipotez proponowanych u zarania sztucznej inteligencji. Jest to wspomniany powyżej test Turinga oraz hipoteza Newella-Simona i wiele innych podejść do rozwoju sztucznej inteligencji, z których można wyróżnić dwa główne:

semiotyczny, czyli odgórny: oparty na tworzeniu baz wiedzy, systemów wnioskowania i systemów eksperckich symulujących różne procesy mentalne wysokim poziomie, takich jak myślenie, emocje, mowa, kreatywność, rozumowanie itp.

biologiczny lub oddolny: polega na tworzeniu i badaniu sieci neuronowych imitujących procesy zachodzące w ludzkim mózgu, a także tworzeniu biokomputerów, neurokomputerów i innych podobnych systemów obliczeniowych.

Drugie podejście wykracza poza definicję Johna McCarthy’ego, ale ma ten sam cel końcowy, więc istnieją podstawy, aby klasyfikować je jako sztuczną inteligencję.

W połączeniu z psychologią poznawczą, epistemologią i neurofizjologią sztuczna inteligencja tworzy kolejną naukę – kognitywistykę. Epistemologia jest bezpośrednio związana z problematyką AI, gdyż jest nauką o wiedzy (część filozofii), a filozofia z kolei odgrywa ważną rolę w sztucznej inteligencji. Filozofowie i inżynierowie AI rozwiązują podobne problemy: obaj szukają najlepsze sposoby prezentacja i wykorzystanie informacji i wiedzy.

Modelowanie poznawcze to metoda zaproponowana i po raz pierwszy przetestowana przez Axelroda. Metodę tę stosuje się do podejmowania decyzji w słabo określonych sytuacjach. Opiera się na modelowaniu, w oparciu o wiedzę subiektywnych wyobrażeń na temat sytuacji jednego lub większej liczby ekspertów. Model przekonań eksperta to mapa poznawcza (F, W). W to zbiór związków przyczynowo-skutkowych pomiędzy czynnikami sytuacyjnymi, a także wiele metod analizy sytuacji, F to wszystkie dostępne czynniki sytuacji. Obecnie głównym kierunkiem rozwoju modelowania poznawczego jest doskonalenie aparatury do modelowania i analizowania sytuacji. W szczególności opracowywane są różne metody przewidywania sytuacji i metody rozwiązywania problemów odwrotnych.

W informatyce problemy sztucznej inteligencji rozwiązuje się poprzez projektowanie baz wiedzy i systemów ekspertowych. Bazy wiedzy to zbiór wiedzy i reguł, według których informacje mogą być w znaczący sposób przetwarzane. Ogólnie rzecz biorąc, problemy sztucznej inteligencji w informatyce są badane w celu tworzenia systemy informacyjne, ich działanie i doskonalenie. Specjaliści ds. technologii informatycznych zajmują się szkoleniem twórców i użytkowników takich systemów.

To całkiem naturalne, że próby stworzenia sztucznej inteligencji przyciągały i nadal przyciągają uwagę filozofów. Pojawienie się pierwszych systemów intelektualnych nie mogło nie wpłynąć na wiele aspektów związanych z ludzką wiedzą, porządkiem świata i miejscem człowieka w świecie. Konwencjonalnie wszystkie problemy filozoficzne w tym obszarze można podzielić na dwie grupy: możliwość tworzenia sztucznej inteligencji oraz etykę sztucznej inteligencji. W pierwszej grupie większość pytań poświęcona jest możliwościom i sposobom tworzenia AI. Druga grupa problemów wiąże się z możliwe konsekwencje pojawienie się sztucznej inteligencji dla całej ludzkości. Jednocześnie w transhumanizmie stworzenie AI uznawane jest za jedno z podstawowych zadań stojących przed ludzkością.

Naukowcy z Instytutu Singularity Institute (SIAI) zlokalizowanego w Stanach Zjednoczonych aktywnie badają możliwości globalnych zagrożeń, które mogą powstać w wyniku stworzenia nadludzkiej sztucznej inteligencji. Aby zapobiec takim zagrożeniom, sztuczną inteligencję należy zaprogramować tak, aby była przyjazna człowiekowi. Film Ja Robot słusznie porusza kwestię etyki sztucznej inteligencji. Niektórzy naukowcy uważają, że prawa robotyki mogą zachęcać „inteligencję komputerową” do przejęcia Ziemi w celu „ochrony” populacji przed krzywdą.

Jeśli chodzi o wyznania religijne, większość z nich jest dość spokojna co do stworzenia sztucznej inteligencji. Na przykład duchowy przywódca buddystów, Dalajlama, wierzy, że świadomość oparta na komputerze może równie dobrze istnieć. Ruch religijny Raelitów aktywnie wspiera rozwój w tej dziedzinie. Inne wyznania poruszają kwestie związane ze sztuczną inteligencją na tyle rzadko, że uzasadniają zdecydowane stanowisko.

Sztuczna inteligencja: obszary zastosowań

Od chwili uznania sztucznej inteligencji za dziedzinę naukową, a stało się to w połowie lat 50. ubiegłego wieku, twórcy inteligentnych systemów musieli rozwiązać wiele problemów. Tradycyjnie wszystkie zadania można podzielić na kilka klas: rozpoznawanie i tłumaczenie języka ludzkiego, automatyczne dowodzenie twierdzeń, tworzenie programów do gier, rozpoznawanie obrazów i kreatywność maszyn. Rozważmy pokrótce istotę każdej klasy problemów.

Dowód twierdzeń.

Automatyczne dowodzenie twierdzeń jest najstarszym zastosowaniem sztucznej inteligencji. W tym obszarze przeprowadzono wiele badań, których efektem było pojawienie się sformalizowanych algorytmów wyszukiwania i języków reprezentacji formalnej, takich jak PROLOG – logiczny język programowania i rachunek predykatów.

Automatyczne dowody twierdzeń są atrakcyjne, ponieważ opierają się na ogólności i rygorze logiki. Logika w systemie formalnym implikuje możliwość automatyzacji, co oznacza, że ​​jeśli przedstawisz problem i dodatkowe informacje z nim związane jako zbiór aksjomatów logicznych, a szczególne przypadki problemu jako twierdzenia wymagające dowodu, możesz uzyskać rozwiązanie dużo problemów. Na tej zasadzie opierają się systemy uzasadnień matematycznych i automatycznych dowodów twierdzeń. W ubiegłych latach wielokrotnie podejmowano próby napisania programu do automatycznego dowodzenia twierdzeń, jednak nigdy nie udało się stworzyć systemu umożliwiającego rozwiązywanie problemów jedną metodą. Każdy stosunkowo złożony system heurystyczny może generować wiele możliwych do udowodnienia twierdzeń, które są nieistotne, co powoduje, że programy muszą je udowadniać, dopóki nie zostaną odkryte właściwe. Doprowadziło to do przekonania, że ​​dużymi przestrzeniami można zarządzać jedynie za pomocą nieformalnych strategii dostosowanych do konkretnych sytuacji. W praktyce podejście to okazało się całkiem owocne i zostało wykorzystane, wraz z innymi, jako podstawa systemów ekspertowych.

Jednocześnie nie można pominąć rozumowania opartego na logice formalnej. Sformalizowane podejście pozwala rozwiązać wiele problemów. W szczególności za jego pomocą można sterować złożonymi systemami, sprawdzać poprawność programów komputerowych, projektować i testować obwody logiczne. Ponadto badacze zajmujący się automatycznym dowodzeniem twierdzeń opracowali potężną heurystykę polegającą na ocenie składniowej formy wyrażeń logicznych. W rezultacie możliwe stało się zmniejszenie poziomu złożoności przestrzeni poszukiwań bez uciekania się do opracowywania specjalnych strategii.

Automatyczny dowód twierdzeń interesuje naukowców także dlatego, że system można zastosować także do szczególnie złożonych problemów, choć nie bez interwencji człowieka. Obecnie programy często pełnią rolę asystentów. Eksperci dzielą zadanie na kilka podzadań, a następnie opracowują heurystyki, aby uporządkować możliwe przyczyny. Następnie program udowadnia lematy, testuje mniej istotne założenia i uzupełnia formalne aspekty dowodu ludzkiego.

Rozpoznawanie wzorców.

Rozpoznawanie wzorców polega na wyborze istotnych cech charakteryzujących dane źródłowe z ogólnego zbioru cech i na podstawie otrzymanych informacji przyporządkowaniu danych do określonej klasy.

Teoria rozpoznawania wzorców to dziedzina informatyki, której zadaniem jest opracowywanie podstaw i metod identyfikacji i klasyfikacji obiektów (obiektów, procesów, zjawisk, sytuacji, sygnałów itp.), z których każdy wyposażony jest w zestaw pewne znaki i właściwości. W praktyce dość często konieczna jest identyfikacja obiektów. Typową sytuacją jest rozpoznanie koloru sygnalizacji świetlnej i podjęcie decyzji, czy w danym momencie przejść przez ulicę. Istnieją inne obszary, w których nie można obejść się bez rozpoznawania obiektów, na przykład digitalizacja sygnałów analogowych, sprawy wojskowe, systemy bezpieczeństwa itp., Dlatego dziś naukowcy nadal aktywnie pracują nad tworzeniem systemów rozpoznawania obrazu.

Prace prowadzone są w dwóch głównych kierunkach:

Badanie, wyjaśnianie i modelowanie zdolności rozróżniania właściwych istotom żywym.

Opracowanie podstaw teoretycznych i metodologicznych do tworzenia urządzeń pozwalających na rozwiązywanie indywidualnych problemów dla zastosowań.

Problemy rozpoznawania formułuje się za pomocą języka matematycznego. O ile teoria sztucznych sieci neuronowych opiera się na uzyskiwaniu wyników w drodze eksperymentów, o tyle formułowanie problemów rozpoznawania wzorców odbywa się nie na podstawie eksperymentu, ale w oparciu o dowody matematyczne i logiczne rozumowanie.

Rozważmy klasyczne sformułowanie takiego problemu. Obiektów, względem których należy przeprowadzić klasyfikację, jest wiele. Zbiór składa się z podzbiorów lub klas. Dane: informacja opisująca zbiór, informacja o klasach oraz opis pojedynczego obiektu bez wskazania jego przynależności do konkretnej klasy. Zadanie: na podstawie dostępnych danych określ, do której klasy należy obiekt.

Jeśli problemy zawierają obrazy monochromatyczne, można je uznać za funkcje na płaszczyźnie. Funkcja będzie reprezentować formalny zapis obrazu i w każdym punkcie wyrażać pewną cechę tego obrazu - gęstość optyczną, przezroczystość, jasność itp. W tym przypadku modelem zbioru obrazu będzie zbiór funkcji na płaszczyźnie . Sformułowanie problemu rozpoznania zależy od tego, jakie powinny być etapy następujące po rozpoznaniu.

Do metod rozpoznawania wzorców zaliczają się eksperymenty F. Rosenblatta, który wprowadził koncepcję modelu mózgu. Celem eksperymentu jest pokazanie, jak powstają zjawiska psychologiczne w układzie fizycznym o znanych właściwościach funkcjonalnych i strukturze. Naukowiec opisał najprostsze eksperymenty rozpoznawcze, jednak ich cechą jest niedeterministyczny algorytm rozwiązania.

Najprostszy eksperyment, na podstawie którego można uzyskać istotną psychologicznie informację o układzie, wygląda następująco: perceptronowi zostaje przedstawiona sekwencja dwóch różnych bodźców, na każdy z nich musi w jakiś sposób zareagować, a reakcja musi być różne dla różnych bodźców. Cele takiego eksperymentu mogą być różne. Eksperymentator może stanąć przed zadaniem zbadania możliwości spontanicznej dyskryminacji przez system prezentowanych bodźców bez interwencji z zewnątrz lub odwrotnie, zbadania możliwości wymuszonego rozpoznania. W drugim przypadku eksperymentator uczy system klasyfikowania różnych obiektów, których może być więcej niż dwa. Doświadczenie edukacyjne przebiega w następujący sposób: perceptronowi prezentowane są obrazy, wśród których znajdują się przedstawiciele wszystkich klas do rozpoznania. Prawidłowa reakcja jest wzmacniana zgodnie z zasadami modyfikacji pamięci. Następnie eksperymentator podaje perceptronowi bodziec kontrolny i określa prawdopodobieństwo uzyskania danej reakcji dla obrazów danej klasy. Bodziec kontrolny może być taki sam jak jeden z obiektów prezentowanych w sekwencji treningowej lub różny od wszystkich prezentowanych obiektów. W zależności od tego uzyskuje się następujące wyniki:

Jeżeli bodziec kontrolny różni się od wszystkich wcześniej zaprezentowanych bodźców treningowych, to oprócz czystej dyskryminacji w eksperymencie badane są elementy generalizacji.

Jeżeli bodziec kontrolny powoduje aktywację pewnej grupy elementów zmysłowych, która nie pokrywa się z żadnym z przedstawionych wcześniej elementów aktywowanych przez bodźce tej samej klasy, wówczas eksperyment bada czyste uogólnienie i nie polega na badaniu rozpoznawania.

Pomimo tego, że perceptrony nie są zdolne do czystego uogólniania, zadowalająco radzą sobie z zadaniami rozpoznawania, szczególnie w przypadkach, gdy prezentowane są obrazy, w których perceptron ma już pewne doświadczenie.

Rozpoznawanie mowy ludzkiej i tłumaczenie maszynowe.

Do długoterminowych celów sztucznej inteligencji należy tworzenie programów, które potrafią rozpoznawać ludzki język i wykorzystywać go do konstruowania znaczących wyrażeń. Zdolność rozumienia i używania języka naturalnego jest podstawową cechą ludzkiej inteligencji. Skuteczna automatyzacja tej możliwości znacznie poprawiłaby wydajność komputerów. Wiele programów napisano w celu zrozumienia języka naturalnego i z powodzeniem zastosowano je w ograniczonych kontekstach, ale nadal nie ma systemów, które potrafiłyby używać języków naturalnych z taką samą ogólnością i elastycznością jak ludzie. Faktem jest, że proces rozumienia języka naturalnego nie polega jedynie na prostym rozkładaniu zdań na części składowe i sprawdzaniu znaczeń poszczególnych słów w słownikach. Programy z powodzeniem radzą sobie z tym zadaniem. Aby posługiwać się mową ludzką, potrzebujesz rozległej wiedzy na temat tematu rozmowy, idiomów z nią związanych, ponadto potrzebujesz umiejętności rozumienia niejasności, przeoczeń, profesjonalizmu, żargonu, wyrażeń potocznych i wielu innych, które są nieodłącznie związane z normalną mową ludzką .

Przykładem jest rozmowa o piłce nożnej, podczas której używane są słowa takie jak „napastnik”, „podanie”, „podanie”, „rzut wolny”, „obrońca”, „napastnik”, „kapitan” i inne. Każde z tych słów charakteryzuje się zestawem znaczeń i pojedynczo słowa są w miarę zrozumiałe, ale zdanie z nich utworzone będzie niezrozumiałe dla każdego, kto nie interesuje się piłką nożną i nie ma pojęcia o historii, zasadach i zasadach tej gry . Zatem zrozumienie i używanie ludzkiego języka wymaga pewnej wiedzy ogólnej, a jednym z głównych wyzwań w automatyzacji rozumienia i używania naturalnego języka ludzkiego jest gromadzenie i systematyzacja takiej wiedzy.

Ponieważ znaczenia semantyczne są bardzo szeroko stosowane w sztucznej inteligencji, naukowcy opracowali szereg metod, które pozwalają w pewnym stopniu je ustrukturyzować. Jednak większość pracy wykonywana jest w obszarach problemowych, które są dobrze poznane i wyspecjalizowane. Przykładem jest technika „mikroświata”. Jednym z pierwszych programów, w których go zastosowano, był program SHRDLU opracowany przez Terry'ego Winograda, będący jednym z systemów rozumienia mowy ludzkiej. Możliwości programu były dość ograniczone i sprowadzały się do „rozmowy” na temat układania klocków o różnych kolorach i kształtach oraz planowania prostych czynności. Program dostarczał odpowiedzi na pytania typu: „Jakiego koloru jest piramida na bloku krzyżowym?” i może wydawać polecenia typu „Umieść niebieski klocek na czerwonym”. Problemami takimi często zajmowali się badacze sztucznej inteligencji, a później zaczęto je nazywać „światem klocków”.

Mimo że program SHRDLU skutecznie „rozmawiał” na temat lokalizacji bloków, nie został wyposażony w umiejętność abstrahowania od tego „mikroświata”. Stosowano zbyt proste techniki, które nie były w stanie przekazać organizacji semantycznej obszarów tematycznych o większej złożoności.

Obecne prace w zakresie rozumienia i stosowania języków naturalnych mają na celu głównie znalezienie formalizmów reprezentacyjnych, które są na tyle ogólne, że można je dostosować do specyficznych struktur danych dziedzin i zastosować do szerokiego zakresu zastosowań. Większość istniejących technik, będących modyfikacjami sieci semiotycznych, jest badana i wykorzystywana do pisania programów zdolnych do rozpoznawania języka naturalnego w wąskich obszarach tematycznych. Jednocześnie współczesne możliwości nie pozwalają na stworzenie uniwersalnego programu zdolnego zrozumieć ludzką mowę w całej jej różnorodności.

Wśród różnorodnych problemów rozpoznawania wzorców można wyróżnić:

Identyfikacja złóż kopalin

Rozpoznawanie obrazu

Rozpoznawanie kodów kreskowych

Rozpoznawanie postaci

Rozpoznawanie mowy

Rozpoznawanie twarzy

Rozpoznawanie tablic rejestracyjnych

Sztuczna inteligencja w programach do gier.

Sztuczna inteligencja w grach obejmuje nie tylko tradycyjne metody sztucznej inteligencji, ale także algorytmy z informatyki w ogóle, grafiki komputerowej, robotyki i teorii sterowania. Sposób zaimplementowania sztucznej inteligencji wpływa nie tylko na wymagania systemowe, ale także na budżet gry, dlatego deweloperzy muszą balansować, starając się, aby sztuczna inteligencja gry została stworzona minimalnym kosztem, a jednocześnie była ciekawa i mało wymagająca na zasobach. Wymaga to zupełnie innego podejścia niż tradycyjna sztuczna inteligencja. W szczególności szeroko stosowane są emulacje, oszustwa i różne uproszczenia. Przykład: cechą strzelanek pierwszoosobowych jest zdolność botów do dokładnego poruszania się i natychmiastowego celowania, ale jednocześnie osoba nie ma ani jednej szansy, więc zdolności botów są sztucznie ograniczane. Jednocześnie na poziomie rozmieszczone są punkty kontrolne, dzięki czemu boty mogą działać zespołowo, organizować zasadzki itp.

W grach komputerowych sterowanych przez sztuczną inteligencję gier występują następujące kategorie postaci:

moby to postacie o niskim poziomie inteligencji, wrogie ludzkiemu graczowi. Gracze niszczą moby, aby przejść przez terytorium, zdobyć artefakty i punkty doświadczenia.

postacie niezależne - zazwyczaj są to postacie przyjazne lub neutralne dla gracza.

boty to postacie wrogo nastawione do graczy i najtrudniejsze do zaprogramowania. Ich możliwości są zbliżone do możliwości postaci z gry. W dowolnym momencie przeciwko graczowi występuje pewna liczba botów.

W grze komputerowej istnieje wiele obszarów, w których wykorzystuje się szeroką gamę algorytmów heurystycznych sztucznej inteligencji w grach. Sztuczna inteligencja w grach jest najczęściej stosowana jako sposób kontrolowania postaci niezależnych. Inną, nie mniej powszechną metodą kontroli jest skrypt. Innym oczywistym zastosowaniem sztucznej inteligencji w grach, zwłaszcza w grach strategicznych czasu rzeczywistego, jest odnajdywanie ścieżki, czyli metoda określania, w jaki sposób postać niezależna może przedostać się z jednego punktu na mapie do drugiego. W takim przypadku należy wziąć pod uwagę przeszkody, teren i możliwą „mgłę wojny”. Dynamiczne równoważenie mobów również nie jest kompletne bez użycia sztucznej inteligencji. Wiele gier eksplorowało koncepcję nieprzewidywalnej inteligencji. Są to takie gry jak Nintendogs, Black & White, Creatures czy dobrze znana zabawka Tamagotchi. W tych grach bohaterami są zwierzaki, których zachowanie zmienia się w zależności od działań wykonywanych przez gracza. Bohaterowie wydają się zdolni do uczenia się, podczas gdy w rzeczywistości ich działania są wynikiem wyboru z ograniczonego zestawu decyzji.

Wielu programistów gier uważa każdą technikę tworzącą iluzję inteligencji za część sztucznej inteligencji w grach. Jednak takie podejście nie jest do końca poprawne, ponieważ te same techniki można zastosować nie tylko w silnikach AI gier. Przykładowo przy tworzeniu botów wykorzystywane są algorytmy z wprowadzoną do nich informacją o ewentualnych przyszłych kolizjach, dzięki czemu boty nabywają „umiejętność” unikania tych kolizji. Ale te same techniki są ważnym i niezbędnym elementem silnika fizycznego. Inny przykład: ważnym elementem systemu namierzania bota są dane dotyczące wody i te same dane są szeroko wykorzystywane w silniku graficznym do renderowania. Ostatnim przykładem jest skrypt. Narzędzie to można z powodzeniem wykorzystać we wszystkich aspektach tworzenia gier, jednak najczęściej traktowane jest jako jeden ze sposobów kontrolowania poczynań postaci niezależnych.

Zdaniem purystów określenie „sztuczna inteligencja w grach” nie ma prawa istnieć, gdyż jest przesadą. Ich głównym argumentem jest to, że AI w grach wykorzystuje tylko niektóre obszary nauki o klasycznej sztucznej inteligencji. Należy też wziąć pod uwagę, że celem AI jest tworzenie systemów samouczących się, a nawet tworzenie sztucznej inteligencji zdolnej do rozumowania, choć często ogranicza się ona do heurystyki i zestawu kilku praktycznych zasad, które wystarczą, aby stworzyć dobrą rozgrywkę i zapewni graczowi żywe wrażenia i poczucie gry.

Obecnie twórcy gier komputerowych wykazują zainteresowanie akademicką sztuczną inteligencją, a społeczność akademicka z kolei zaczyna interesować się grami komputerowymi. Nasuwa się pytanie, w jakim stopniu gry i klasyczna sztuczna inteligencja różnią się od siebie. Jednocześnie sztuczna inteligencja w grach jest nadal uważana za jedną z gałęzi klasycznej inteligencji. Wynika to z faktu, że sztuczna inteligencja ma różne obszary zastosowań, które różnią się od siebie. Jeśli mówimy o inteligencji gier, ważną różnicą jest tutaj możliwość oszukania w celu rozwiązania pewnych problemów w „legalny” sposób. Z jednej strony wadą oszustwa jest to, że często prowadzi ono do nierealistycznych zachowań postaci i dlatego nie zawsze można je zastosować. Z drugiej strony, sama możliwość takiego oszustwa stanowi istotną różnicę między sztuczną inteligencją w grach.

Kolejnym ciekawym zadaniem sztucznej inteligencji jest nauczenie komputera gry w szachy. W jego rozwiązanie zaangażowani byli naukowcy z całego świata. Specyfiką tego zadania jest to, że wykazanie zdolności logicznych komputera jest możliwe tylko w obecności prawdziwego przeciwnika. Pierwsza taka demonstracja odbyła się w 1974 roku w Sztokholmie, gdzie odbyły się Mistrzostwa Świata w szachach wśród programów szachowych. Konkurs wygrał program „Kaissa”, stworzony przez radzieckich naukowców z Instytutu Problemów Zarządzania Akademii Nauk ZSRR w Moskwie.

Sztuczna inteligencja w kreatywności maszyn.

Natura ludzkiej inteligencji nie została jeszcze dostatecznie zbadana, a stopień, w jakim zbadano naturę ludzkiej kreatywności, jest jeszcze mniejszy. Jednak jednym z obszarów sztucznej inteligencji jest kreatywność maszyn. Nowoczesne komputery tworzą dzieła muzyczne, literackie i artystyczne, a przemysł gier komputerowych i filmowy od dawna wykorzystuje realistyczne obrazy tworzone przez maszyny. Istniejące programy tworzą różnorodne obrazy, które mogą być łatwo dostrzeżone i zrozumiane przez człowieka. Jest to szczególnie istotne w przypadku wiedzy intuicyjnej, której formalna weryfikacja wymagałaby sporego wysiłku umysłowego. W ten sposób problemy muzyczne są z powodzeniem rozwiązywane za pomocą języka programowania, jednym z nich jest język CSound. Specjalne oprogramowanie, za pomocą którego tworzone są dzieła muzyczne, to programy do kompozycji algorytmicznej, interaktywne systemy kompozycji, systemy syntezy i przetwarzania dźwięku.

Systemy eksperckie.

Rozwój nowoczesnych systemów ekspertowych jest prowadzony przez badaczy od początku lat 70. XX wieku, a na początku lat 80. zaczęto opracowywać systemy ekspertowe na zasadach komercyjnych. Prototypami systemów ekspertowych, zaproponowanymi w 1832 roku przez rosyjskiego uczonego S. N. Korsakowa, były urządzenia mechaniczne zwane „inteligentnymi maszynami”, które umożliwiały znalezienie rozwiązania w oparciu o zadane warunki. Analizowano np. objawy choroby zaobserwowane u pacjenta i na podstawie wyników tej analizy proponowano najodpowiedniejsze leki.

Informatyka uwzględnia systemy ekspertowe wraz z bazami wiedzy. Systemy to modele zachowań eksperckich oparte na zastosowaniu procedur decyzyjnych i logicznych wniosków. Bazy wiedzy są traktowane jako zbiór reguł logicznego wnioskowania i faktów, które są bezpośrednio związane z wybranym obszarem działalności.

Pod koniec ubiegłego wieku rozwinęła się pewna koncepcja systemów ekspertowych, głęboko skupiona na ogólnie przyjętym wówczas tekstowym interfejsie człowiek-maszyna. Obecnie koncepcja ta przeszła poważny kryzys, najwyraźniej w związku z tym, że w aplikacjach użytkownika interfejs tekstowy został zastąpiony graficznym. Ponadto relacyjny model danych i „klasyczne” spojrzenie na budowanie systemów ekspertowych nie pasują do siebie. W konsekwencji organizacja baz wiedzy systemów ekspertowych nie może być przeprowadzona efektywnie, przynajmniej przy wykorzystaniu nowoczesnych przemysłowych systemów zarządzania bazami danych. Źródła literackie i internetowe dostarczają wielu przykładów systemów ekspertowych zwanych „powszechnymi” lub „dobrze znanymi”. Tak naprawdę wszystkie te systemy ekspertowe powstały jeszcze w latach 80-tych ubiegłego wieku i do tej pory albo przestały istnieć, albo są beznadziejnie przestarzałe i istnieją dzięki kilku entuzjastom. Z drugiej strony twórcy nowoczesnego oprogramowania często nazywają swoje dzieła systemami eksperckimi. Takie stwierdzenia to nic innego jak chwyt marketingowy, gdyż w rzeczywistości produkty te nie są systemami eksperckimi (przykładem może być którykolwiek z komputerowych systemów odniesienia prawnego). Entuzjaści próbują łączyć podejście do tworzenia interfejsu użytkownika z „klasycznym” podejściem do tworzenia systemów ekspertowych. Próby te znajdują odzwierciedlenie w projektach takich jak CLIPS.NET, CLIPS Java Native Interface i inne, ale dużym firmom programistycznym nie spieszy się z finansowaniem takich projektów i dlatego rozwój nie wychodzi poza fazę eksperymentalną.

Różnorodność obszarów, w których można zastosować systemy oparte na wiedzy, można podzielić na klasy: diagnostyka medyczna, planowanie, prognozowanie, monitorowanie i kontrola, szkolenia, interpretacja, diagnostyka usterek w urządzeniach elektrycznych i mechanicznych, szkolenia. Przyjrzyjmy się każdej z tych klas bardziej szczegółowo.

a) Medyczne systemy diagnostyczne.

Za pomocą takich systemów określają, w jaki sposób różne zaburzenia w funkcjonowaniu organizmu są ze sobą powiązane i ich możliwe przyczyny. Najbardziej znanym systemem diagnostycznym jest MYCIN. Służy do diagnozowania zapalenia opon mózgowo-rdzeniowych i infekcji bakteryjnych, a także do monitorowania stanu pacjentów cierpiących na te choroby. Pierwsza wersja systemu powstała w latach 70-tych. Dziś jego możliwości znacznie się poszerzyły: system stawia diagnozy na tym samym profesjonalnym poziomie co specjalista medyczny i może być stosowany w różnych dziedzinach medycyny.

b) Systemy predykcyjne.

Systemy mają za zadanie przewidywać zdarzenia lub skutki zdarzeń w oparciu o dostępne dane charakteryzujące aktualną sytuację lub stan obiektu. Dzięki temu program „Podbój Wall Street”, który w swojej pracy wykorzystuje statystyczne metody algorytmów, jest w stanie przeanalizować warunki rynkowe i opracować plan inwestycyjny. Program wykorzystuje algorytmy i procedury tradycyjnego programowania, dlatego nie można go zaliczyć do systemu opartego na wiedzy. Już dziś istnieją programy, które na podstawie analizy dostępnych danych potrafią przewidzieć przepływ pasażerów, plony i pogodę. Takie programy są dość proste, a niektórych z nich można używać na zwykłych komputerach osobistych. Wciąż jednak brak jest systemów eksperckich, które na podstawie danych o warunkach rynkowych mogłyby sugerować sposób podwyższenia kapitału.

c) Planowanie.

Systemy planowania są zaprojektowane tak, aby rozwiązywać problemy z dużą liczbą zmiennych w celu osiągnięcia określonych wyników. Po raz pierwszy w sferze komercyjnej systemy tego typu zastosowała damasceńska firma Informat. Zarząd firmy zlecił instalację 13 stanowisk w holu biura, które zapewniały bezpłatne konsultacje dla klientów chcących kupić komputer. Maszyny pomogły nam dokonać wyboru najlepiej odpowiadającego budżetowi i życzeniom kupującego. Systemy eksperckie Boeing wykorzystywał także m.in. do naprawy helikopterów, identyfikacji przyczyn awarii silników lotniczych czy projektowania stacji kosmicznych. DEC stworzył system ekspercki XCON, który jest w stanie identyfikować i rekonfigurować systemy komputerowe VAX w oparciu o wymagania klienta. DEC pracuje obecnie nad potężniejszym systemem XSEL, który zawiera bazę wiedzy XCON. Celem stworzenia systemu jest pomoc konsumentom w wyborze systemu obliczeniowego o wymaganej konfiguracji. Różnica między XEL i XCON polega na tym, że jest interaktywny.

d) Interpretacja.

Systemy interpretacyjne potrafią wyciągać wnioski na podstawie wyników obserwacji. Jednym z najbardziej znanych systemów interpretacyjnych jest system PROSPECTOR. Działa w oparciu o dane oparte na wiedzy dziewięciu ekspertów. Skuteczność systemu można ocenić na jednym przykładzie: stosując dziewięć różnych metod badawczych, system odkrył złoże rudy, którego żaden ekspert nie był w stanie przewidzieć. Innym dobrze znanym systemem typów interpretacyjnych jest HASP/SIAP. Wykorzystuje dane z akustycznych systemów śledzenia i wykorzystuje je do określania lokalizacji statków na Pacyfiku oraz ich typów.

e) Inteligentne systemy kontroli i zarządzania.

Systemy ekspertowe z powodzeniem wykorzystywane są w kontroli i zarządzaniu. Potrafią analizować dane otrzymane z kilku źródeł i podejmować decyzje na podstawie wyników analizy. Systemy takie są w stanie prowadzić monitoring medyczny i kontrolę ruchu statków powietrznych, ponadto znajdują zastosowanie w elektrowniach jądrowych. Pomagają także regulować działalność finansową przedsiębiorstwa i opracowywać rozwiązania w sytuacjach krytycznych.

f) Diagnozowanie i rozwiązywanie problemów urządzeń elektrycznych i mechanicznych.

Systemy oparte na wiedzy znajdują zastosowanie w takich przypadkach jak:

naprawa lokomotyw spalinowych, samochodów i innych urządzeń elektrycznych i mechanicznych;

diagnostyka i usuwanie błędów i usterek w oprogramowaniu i sprzęcie komputerowym.

g) Komputerowe systemy szkoleniowe.

Wykorzystanie systemów opartych na wiedzy do celów edukacyjnych jest dość efektywne. System analizuje zachowanie i aktywność obiektu oraz na podstawie otrzymanych informacji zmienia bazę wiedzy. Najprostszym przykładem takiego treningu jest gra komputerowa, w której poziomy stają się coraz trudniejsze wraz ze wzrostem umiejętności gracza. Ciekawy system szkoleniowy EURISCO opracował D. Lenat. Wykorzystuje proste heurystyki. System został wykorzystany w grze symulującej działania bojowe. Istotą zabawy jest ustalenie optymalnego składu flotylli, która przy zachowaniu wielu zasad mogłaby zadawać porażki. System skutecznie poradził sobie z tym zadaniem, włączając w skład flotylli jeden mały statek i kilka statków zdolnych do przeprowadzenia ataku. Zasady gry zmieniały się co roku, ale system EURISCO niezmiennie wygrywał przez trzy lata.

Istnieje wiele systemów ekspertowych, które ze względu na zawartość wiedzy można podzielić na kilka typów jednocześnie. Na przykład system wykonujący planowanie może być również systemem uczącym się. Potrafi określić poziom wiedzy ucznia i na tej podstawie stworzyć program nauczania. Systemy sterowania służą do planowania, prognozowania, diagnostyki i sterowania. Systemy przeznaczone do ochrony domu lub mieszkania potrafią monitorować zmiany zachodzące w otoczeniu, przewidywać rozwój sytuacji i sporządzać plan dalszego działania. Na przykład okno się otworzyło i złodziej próbuje przez nie wejść do pokoju, dlatego należy wezwać policję.

Powszechne stosowanie systemów ekspertowych rozpoczęło się w latach 80. XX wieku, kiedy po raz pierwszy wprowadzono je na rynek. ES znajdują zastosowanie w wielu obszarach, m.in. w biznesie, nauce, technologii, produkcji i innych gałęziach przemysłu charakteryzujących się bardzo specyficzną tematyką. W tym kontekście „dobrze zdefiniowany” oznacza, że ​​można podzielić przebieg rozumowania na poszczególne etapy i w ten sposób można rozwiązać każdy problem mieszczący się w danym obszarze. Dlatego program komputerowy może wykonywać podobne działania. Można śmiało powiedzieć, że wykorzystanie możliwości sztucznej inteligencji otwiera przed ludzkością nieskończone możliwości.

Sztuczna inteligencja i perspektywy jej rozwoju

Powieść Davida Lodge'a Small World, opowiadająca o akademickim świecie krytyki literackiej, opisuje niezwykłą scenę. Główny bohater zwraca się do grupy wybitnych teoretyków literatury z pytaniem, co by się stało, gdyby mieli rację. Wśród teoretyków narosło zamieszanie. Nie zgadzali się ze sobą, ale żadnemu z nich wcześniej nie przyszło do głowy, że spieranie się na temat niepodważalnych teorii jest czynnością pozbawioną jakiegokolwiek sensu. Gdybyście zadali podobną ankietę naukowcom badającym sztuczną inteligencję, oni prawdopodobnie również byliby zdezorientowani. Co by się stało, gdyby udało im się osiągnąć swoje cele? W końcu inteligentne komputery wykazują już niezwykłe osiągnięcia i wszyscy rozumieją, że są bardziej przydatne niż maszyny, które nie mają inteligencji. Wydawać by się mogło, że nie ma się czym martwić. Istnieje jednak szereg kwestii etycznych, które należy wziąć pod uwagę.

Inteligentne komputery mają większą moc niż nieinteligentne, ale czy można zapewnić, że ta moc będzie zawsze wykorzystywana tylko w dobrym, a nie złym celu? Badacze sztucznej inteligencji, którzy całe życie poświęcili rozwojowi w tej dziedzinie, muszą zrozumieć swoją odpowiedzialność, aby wyniki ich pracy miały wyłącznie pozytywny wpływ na ludzkość. Stopień tego wpływu jest bezpośrednio powiązany ze stopniem sztucznej inteligencji. Nawet najwcześniejsze postępy poczynione w tej dziedzinie miały znaczący wpływ na sposób nauczania informatyki oraz rozwój oprogramowania i sprzętu. Sztuczna inteligencja umożliwiła stworzenie wyszukiwarek, robotów, skutecznych systemów nadzoru zewnętrznego, systemów zarządzania zapasami, rozpoznawania mowy i szeregu innych całkowicie nowych aplikacji.

Według twórców, sukcesy średniego szczebla osiągnięte w sztucznej inteligencji mogą mieć ogromny wpływ na sposób życia populacji na całej planecie. Do tej pory tak wszechobecny wpływ miały jedynie Internet i komunikacja telefonii komórkowej, a stopień wpływu sztucznej inteligencji pozostawał niewielki. Ale możemy sobie wyobrazić, jak pojawienie się osobistych asystentów w domu lub biurze przyniesie korzyści ludzkości i jak poprawi się jakość życia codziennego wraz z ich wyglądem, chociaż na początku może to wiązać się z szeregiem problemów ekonomicznych. Jednocześnie możliwości technologiczne, które otworzyły się przed ludzkością, mogą doprowadzić do stworzenia autonomicznej broni, a jej pojawienie się, zdaniem wielu, jest niepożądane. Wreszcie może się zdarzyć, że sukces w stworzeniu sztucznej inteligencji, która przewyższa ludzki umysł, może radykalnie zmienić życie ludzkości. Ludzie będą inaczej pracować, odpoczywać i bawić się; zmienią się poglądy na temat świadomości, inteligencji i samej przyszłości ludzkości. Łatwo zrozumieć, że pojawienie się wyższej inteligencji może spowodować poważne szkody dla wolności, samostanowienia i istnienia ludzi. Przynajmniej wszystkie te aspekty mogą być zagrożone. Dlatego badania związane ze sztuczną inteligencją muszą być prowadzone ze świadomością jej możliwych konsekwencji.

Jaka może być przyszłość? W większości powieści science fiction rozwój fabuły nie następuje według scenariuszy optymistycznych, ale pesymistycznych, być może tylko dlatego, że takie dzieła są bardziej atrakcyjne dla czytelników. Ale w rzeczywistości najprawdopodobniej wszystko będzie inne. Rozwój sztucznej inteligencji odbywa się w ten sam sposób, w jaki rozwinęła się w swoim czasie telefonia, aeronautyka, aparatura inżynieryjna, poligrafia i inne rewolucyjne technologie, których wprowadzenie przyniosło raczej pozytywne niż negatywne konsekwencje.

Warto również zauważyć, że pomimo krótka historia istnienia sztucznej inteligencji nastąpił znaczny postęp w tej dziedzinie. Gdyby jednak ludzkość mogła spojrzeć w przyszłość, zobaczyłaby, jak niewiele zostało zrobione w porównaniu z tym, co pozostaje do zrobienia.

Wniosek

ekspert od sztucznej inteligencji

W środowisku naukowym trwa debata na temat możliwości stworzenia sztucznej inteligencji. Zdaniem wielu powstanie sztucznej inteligencji będzie wiązało się z degradacją godności ludzkiej. Mówiąc o możliwościach AI, nie możemy zapominać o konieczności rozwoju i doskonalenia ludzkiej inteligencji.

Zaletami stosowania sztucznej inteligencji jest to, że stanowi ona zachętę do dalszego postępu, a także znacznie zwiększa wydajność pracy poprzez automatyzację produkcji. Jednak przy wszystkich zaletach cybernetyka ma również pewne wady, na które ludzkość powinna zwrócić szczególną uwagę. Główną wadą jest niebezpieczeństwo, jakie może powodować praca z AI. Innym problemem jest to, że ludzie mogą stracić motywację do kreatywności. Komputery są używane w sztuce wszędzie i wydaje się, że wypierają ludzi z tego obszaru. Pozostaje mieć nadzieję, że wykwalifikowana praca twórcza nadal będzie atrakcyjna dla człowieka, a najlepsze dzieła muzyczne, literackie i artystyczne nadal będą tworzone przez ludzi.

Jest jeszcze inna grupa problemów, poważniejsza. Nowoczesne maszyny i programy mają zdolność dostosowywania się do zmieniających się czynników zewnętrznych, czyli uczenia się. Już wkrótce zostaną opracowane maszyny o takim stopniu zdolności adaptacyjnych i niezawodności, które pozwolą człowiekowi nie ingerować w proces decyzyjny. Może to spowodować, że ludzie nie będą w stanie odpowiednio zareagować w sytuacji awaryjnej. nagły wypadek. Może się też zdarzyć, że w sytuacji awaryjnej dana osoba nie będzie mogła objąć funkcji kierowniczych w momencie, gdy zajdzie taka potrzeba. Oznacza to, że już teraz warto pomyśleć o wprowadzeniu pewnych ograniczeń automatyzacji procesów, szczególnie tych związanych z występowaniem poważnych zagrożeń sytuacje awaryjne. W takim przypadku osoba sterująca maszyną sterującą będzie w stanie prawidłowo zareagować i podjąć odpowiednią decyzję w konkretnej, nieprzewidzianej sytuacji.

Takie sytuacje mogą mieć miejsce w sektorze transportu, energetyce nuklearnej i siłach rakietowych. W tym drugim przypadku błąd może prowadzić do tragicznych konsekwencji. Jednak możliwość błędów zawsze istnieje i pozostaje nawet w przypadku powielania i wielokrotnych podwójnych kontroli. Oznacza to, że operator musi być obecny w celu monitorowania maszyny.

Jest już oczywiste, że ludzie będą musieli stale rozwiązywać problemy związane ze sztuczną inteligencją, jakie pojawiają się teraz i będą pojawiać się w przyszłości.

W ramach tego kursu zbadano zadania sztucznej inteligencji, historię jej pojawienia się, obszary zastosowań i niektóre problemy związane ze sztuczną inteligencją. Informacje przedstawione w tej pracy będą interesujące dla osób zainteresowanych nowoczesne technologie oraz postępy związane ze sztuczną inteligencją. Cele pracy w tym kursie zostały osiągnięte.

Słowniczek

Lp. Pojęcie Definicja 1 Sztuczna sieć neuronowa, model matematyczny zbudowany na zasadzie funkcjonowania i organizacji biologicznej sieci neuronowej 2 Cybernetyka, nauka o sterowaniu, komunikacji i przetwarzaniu informacji 3 Kognitologia to dziedzina działalności związana z analiza wiedzy i zapewnienie jej dalszego rozwoju 4 Rendering, proces uzyskiwania obrazu za pomocą modelu 5 Skryptowanie, pisanie skryptów (skryptów) w interpretowanych językach programowania

Lista wykorzystanych źródeł

Devyatkov V.V. Systemy sztucznej inteligencji / Ch. wyd. I. B. Fiodorow. - M.: Wydawnictwo MSTU im. N. E. Bauman, 2001. - 352 s. - (Informatyka w Uniwersytet Techniczny). - 3000 egzemplarzy.

Żurawlew Yu.I. O algebraicznym podejściu do rozwiązywania problemów rozpoznawania i klasyfikacji // Problemy Cybernetyki. - M.: Nauka, 1978, zeszyt. 33.

McCarthy D. Czym jest sztuczna inteligencja?, - M.: 2007.

Petrunin Yu. Yu., Ryazanov M. A., Savelyev A. V. Filozofia sztucznej inteligencji w koncepcjach neuronauki. (Monografia naukowa). - M.: MAKS Press, 2010.

Peter Jackson Wprowadzenie do systemów ekspertowych. - wyd. 3. - M.: Williams, 2001. - s. 624.

Russell S., Norvig P. Sztuczna inteligencja: nowoczesne podejście/ os. z angielskiego i wyd. K. A. Ptitsyna. - wyd. 2 - M.: Williams, 2006. - 1408 s. - 3000 egzemplarzy.

Tu J., Gonzalez R. Zasady rozpoznawania wzorców, - M.: 1978

Fain V.S. Identyfikacja obrazu, - M.: 1970

Pytania do nauki

  1. Koncepcja sztucznej inteligencji
  2. Narzędzia SII
  3. Cel i struktura systemów ekspertowych

Sztuczna inteligencja to dyscyplina naukowa, która powstała w latach 50. na styku cybernetyki, językoznawstwa, psychologii i programowania.

Sztuczna inteligencja ma długą historię. Już Platon, Arystoteles, Sokrates, R. Kartezjusz, G. Leibniz, J. Boole, następnie N. Wiener i wielu innych badaczy starało się opisać myślenie jako zbiór pewnych elementarnych operacji, reguł i procedur.

Oto kilka definicji sztucznej inteligencji opublikowanych w różnych źródłach.

1. Sztuczna inteligencja – symbol systemy cybernetyczne, modelowanie niektórych aspektów ludzkiej (rozsądnej) aktywności intelektualnej: myślenia logicznego i analitycznego.

2. Sztuczna inteligencja – umiejętności robota lub komputera naśladować ludzkie umiejętności wykorzystywane do rozwiązywania problemów, eksploracji problemów, rozumowania i samodoskonalenia.

3. AI to kierunek naukowy z którym się wiąże rozwój algorytmów oraz programy do automatyzacji działań wymagających ludzkiej inteligencji.

4. AI to jedna z dziedzin informatyki, której celem jest rozwój sprzętu i oprogramowania, umożliwienie użytkownikowi niebędącemu programistą stawiania i rozwiązywania własnych problemów, tradycyjnie uważanych za intelektualne, poprzez komunikowanie się z komputerem w ograniczonym podzbiorze języka naturalnego.

Od początku badań w obszarze AI wyróżniono dwa kierunki:

AI dzieli się na dwie części kierunki naukowe: neurocybernetyka (lub sztuczna inteligencja) i cybernetyka „czarnej skrzynki” (lub inteligencja maszynowa).

Przypomnijmy, że cybernetyka jest nauką o kontroli, komunikacji i przetwarzaniu informacji. Cybernetyka bada obiekty bez względu na ich materialną naturę (systemy ożywione i nieożywione).

Kierunek pierwszy – neurocybernetyka – opiera się na sprzętowym modelowaniu funkcjonowania mózgu człowieka, którego podstawą jest duża liczba (około 14 miliardów) połączonych i oddziałujących na siebie komórki nerwowe– neurony.

Systemy sztucznej inteligencji modelujące funkcjonowanie mózgu nazywane są sieciami neuronowymi (lub sieciami neuronowymi). Pierwsze sieci neuronowe zostały stworzone pod koniec lat 50. XX wieku przez amerykańskich naukowców G. Rosenblatta i P. McCullocha.

Dla drugiego kierunku AI – cybernetyki „czarnej skrzynki” – nie ma znaczenia, jaka jest konstrukcja „myślącego” urządzenia. Najważniejsze, że reaguje na dane bodźce wejściowe w taki sam sposób, jak ludzki mózg.

Użytkownicy komputerów dość często spotykają się z przejawami sztucznej inteligencji. Na przykład podczas pracy z edytorem tekstu pisownia jest sprawdzana automatycznie (z uwzględnieniem używanego języka). Pracując z arkuszami kalkulacyjnymi, nie musisz wprowadzać wszystkich dni tygodnia ani wszystkich miesięcy w roku. Wystarczy dokonać jednego lub dwóch wpisów, a komputer będzie w stanie dokładnie uzupełnić listę. Za pomocą mikrofonu i specjalnego programu można sterować pracą programu za pomocą głosu. Podczas wybierania numeru adres e-mail przeglądarka próbuje przewidzieć adres i dodać go. Wyszukiwanie informacji w sieci globalnej za pomocą podanych słów kluczowych obejmuje również elementy AI. Podczas skanowania tekstu pisanego odręcznie systemy AI rozpoznają litery i cyfry.



Pomysły AI są wykorzystywane w teoria gry, na przykład, aby stworzyć komputer, który gra w szachy, warcaby, reversi i inne gry logiczne i strategiczne.

Używanie MM do rozwiązania problemu synteza mowy i problem odwrotny - analiza i rozpoznawanie mowy. W większości przypadków sztuczna inteligencja służy do znalezienia metody rozwiązania jakiegoś problemu. Matematyka jest jednym z głównych obszarów zastosowań metod AI. Matematyka symboliczna (algebra komputerowa) jest jednym z najwspanialszych przejawów sztucznej inteligencji.

Dziedzina sztucznej inteligencji obejmuje problemy rozpoznawania obrazu (optycznego i akustycznego). Identyfikacja odcisków palców i porównywanie ludzkich twarzy to zadania polegające na rozpoznawaniu wzorców.

Systemy eksperckie zbudowane na pomysłach AI gromadzą doświadczenie, wiedzę i umiejętności specjalistów (ekspertów), aby we właściwym czasie przekazać je dowolnemu użytkownikowi komputera.

Tworzenie inteligentnych programów różni się znacznie od programowania konwencjonalnego i odbywa się poprzez budowę systemu sztucznej inteligencji.

Jeśli zwykły program komputerowy można przedstawić jako:

Program = algorytm + dane

Wówczas typowa dla systemów AI jest następująca struktura:

AII = wiedza + strategia przetwarzania wiedzy

Główny piętno SII to praca oparta na wiedzy.

W przeciwieństwie do danych wiedza ma następujące właściwości:

Wewnętrzna interpretowalność– wraz z informacją KB przedstawia struktury informacyjne, które pozwalają nie tylko przechowywać wiedzę, ale także ją wykorzystywać.

Zbudowany– złożone obiekty rozkładane są na prostsze i powstają pomiędzy nimi połączenia.

Połączenia- ukazywane są wzorce dotyczące faktów, procesów, zjawisk i związków przyczynowo-skutkowych pomiędzy nimi.

Działalność– wiedza zakłada celowe wykorzystanie informacji, umiejętność zarządzania procesami informacyjnymi w celu rozwiązania określonych problemów.

Wszystkie te właściwości powinny docelowo zapewnić zdolność sztucznej inteligencji do symulowania ludzkiego rozumowania przy rozwiązywaniu stosowanych problemów – koncepcja procedury uzyskiwania rozwiązań problemów (strategia przetwarzania wiedzy) jest ściśle związana z wiedzą.

W systemach przetwarzania wiedzy taka procedura nazywana jest mechanizmem wnioskowania, wnioskowaniem logicznym lub silnikiem wnioskowania. Zasady konstruowania mechanizmu wnioskowania w AIS są zdeterminowane sposobem reprezentowania wiedzy i rodzajem modelowanego rozumowania.

Aby zorganizować interakcję z AI, musi ona posiadać środki komunikacji z użytkownikiem, czyli interfejs. Interfejs zapewnia pracę z bazą wiedzy i mechanizmem wyjściowym w języku dość wysokiego poziomu, zbliżonym do języka zawodowego specjalistów z dziedziny stosowanej, do której należy AIS.

Ponadto funkcje interfejsu obejmują obsługę dialogu użytkownika z systemem, co pozwala użytkownikowi otrzymywać wyjaśnienia dotyczące działań systemu, uczestniczyć w poszukiwaniu rozwiązania problemu oraz uzupełniać i korygować bazę wiedzy.

Główne części systemów opartych na wiedzy to:

2. Mechanizm wyjściowy

3. Interfejs użytkownika.

Każdą z tych części można inaczej ułożyć różne systemy różnice te mogą dotyczyć szczegółów i zasad. Jednak wszystkie SII charakteryzują się modelowanie ludzkiego rozumowania.

Wiedza, na której opiera się dana osoba przy rozwiązywaniu konkretnego problemu, jest bardzo niejednorodna:

Wiedza pojęciowa (zbiór pojęć i ich relacje)

Wiedza konstruktywna (wiedza o strukturze i współdziałaniu części różnych obiektów)

Wiedza proceduralna (metody, algorytmy i programy rozwiązywania różnych problemów).

Wiedza faktograficzna (charakterystyka ilościowa i jakościowa obiektów, zjawisk i ich elementów).

Specyfiką systemów reprezentacji wiedzy jest to, że modelują one działania ludzkie, często prowadzone nieformalnie. Modele reprezentacji wiedzy dotyczą informacji otrzymanych od ekspertów, które często mają charakter jakościowy i są sprzeczne. Aby informacje te mogły być przetwarzane komputerowo, należy je sprowadzić do jednoznacznej, sformalizowanej formy. Nauka logiczna bada metody sformalizowanej reprezentacji wiedzy.

Obecnie badania w obszarze AI mają następujący kierunek aplikacyjny:

Systemy eksperckie

Automatyczne dowodzenie twierdzeń

Robotyka

Rozpoznawanie wzorców itp.

Największą dystrybucję osiągnięto przy tworzeniu systemów elektronicznych, które stały się powszechne i wykorzystywane w rozwiązywaniu problemów praktycznych.

  1. Narzędzia SII

Narzędzia wykorzystywane do rozwoju AIS można podzielić na kilka typów:

Programowanie systemów w językach wysokiego poziomu;

Systemy programowania w językach reprezentacji wiedzy;

Powłoki systemów sztucznej inteligencji to systemy szkieletowe;

Narzędzia do automatycznego tworzenia ES.

Programowanie systemów w językach wysokiego poziomu najmniej skupieni na rozwiązywaniu problemów związanych ze sztuczną inteligencją. Nie zawierają narzędzi przeznaczonych do reprezentowania i przetwarzania wiedzy. Niemniej jednak dość duża, choć z czasem malejąca, część AIS jest opracowywana przy użyciu tradycyjnych komputerów nuklearnych.

Programowanie systemów w językach reprezentacji wiedzy posiadają specjalne narzędzia przeznaczone do tworzenia sztucznej inteligencji. Zawierają własne sposoby reprezentacji wiedzy (zgodnie z określonym modelem) i wspierania wnioskowania logicznego. Rozwój sztucznej inteligencji wykorzystującej systemy programowania w YaPL opiera się na konwencjonalnej technologii programowania. Najpopularniejszym językiem programowania logicznego jest PROLOG.

Narzędzia do automatycznego tworzenia ES to elastyczne systemy oprogramowania, które umożliwiają wykorzystanie kilku modeli reprezentacji wiedzy, metod wnioskowania logicznego i typów interfejsów i zawierają AIDS utworzenie ES. Konstrukcja ES przy użyciu rozważanych środków polega na sformalizowaniu wiedzy początkowej, zapisaniu jej w języku wejściowym reprezentującym wiedzę i opisaniu zasad logicznego wnioskowania decyzji. Następnie system ekspertowy zostaje wypełniony wiedzą.

Muszle lub puste ES Są to gotowe ES bez bazy wiedzy. Przykładami powłok ES, które stały się powszechnie stosowane, są zagraniczna powłoka EMYCIN i krajowy rozwój Expert-Micro, mający na celu tworzenie rozwiązań ES dla problemów diagnostycznych. Technologia tworzenia i wykorzystania powłoki ES polega na tym, że z gotowego systemu ekspertowego usuwa się wiedzę z bazy wiedzy, po czym bazę danych zapełnia się wiedzą zorientowaną na inne zastosowania. Zaletą powłok jest ich prostota obsługi – specjalista musi jedynie wypełnić powłokę wiedzą, bez konieczności tworzenia programów. Wadą stosowania powłok jest możliwa rozbieżność pomiędzy konkretną powłoką a zastosowanym ES opracowanym za jej pomocą.