Jobb, ha nem jön létre a szuperintelligens gép, mert biztos, hogy nem tudjuk megállítani

Jobb, ha nem jön létre a szuperintelligens gép, mert biztos, hogy nem tudjuk megállítani

Több film, sorozat és könyv is foglalkozik a gépek öntudatra ébredésével, a megfékezhetetlen mesterséges intelligenciával. A Max Planck Intézet berlini kutatói szerint ez a félelem annyira nem is légből kapott, számol be róla a HVG.

Mint írják, napjainkban sem ritka, hogy a már létező mesterséges intelligenciák szokatlan, váratlan következtetésre jutnak, melyre nem létezik tudományos magyarázat. A Max Planck Humán Fejlesztési Intézet kutatói úgy vélik, a jövőben ennél aggasztóbb helyzetek is kialakulhatnak, feltéve, hogy elérjük azt a fejlettségi szintet, amikor már szuperintelligens gépeket is építhetnénk. De ha ez bekövetkezik, félő hogy ezeket a szerkezetet egyszerűen nem leszünk képesek leállítani.

A probléma a klasszikus számítástechnikai törvényekből ered: ha létezik egy szuperintelligens program, akkor azt csak egy nála fejlettebb (ám még veszélyesebbnek tűnő) programmal lehet megállítani. Ha azonban az MI rádöbben arra, hogy önállóan is tevékenykedhet, akkor már valószínűleg minden olyan eszköz és információ a kezében lesz, amelyeket ehhez a céljához felhasználhat.

A Max Planck Intézet kutatói ezért is kezdtek bele egy érdekes kutatásba, mely során elméleti szinten vizsgálták, mi történne, ha a legokosabb MI minden adatkészletet megkaphatna. A vizsgálathoz egy úgynevezett elszigetelő algoritmust is felhasználtak: ez biztosította volna, hogy a szuperfejlett gép ne okozzon kárt az emberiségnek. Volna, mert a kutatók szerint ilyen eszközt a ma létező és használt számítástudományi paradigmákat figyelembe véve sem lehet építeni.

Hírdetés

„Ha a problémát az elméleti informatikából származó, alapvető szabályokra bontjuk le, kiderül, hogy egy algoritmus, ami arra utasíthatna egy mesterséges intelligenciát, hogy az ne pusztítsa el a világot, akaratlanul is leállíthatná a saját működését. Ha ez megtörténne, nem tudnánk, hogy a korlátozó algoritmus vajon továbbra is a fenyegetést vizsgálja-e, vagy leállt, hogy megfékezze a kártékony gépet. Ez a mechanizmus tulajdonképpen használhatatlanná teszi a korlátozó algoritmust”

– magyarázta Iyad Rahwan, a Center for Humans and Machines igazgatója.

A kutatók szerint mindebből az is levezethető, hogy valószínűleg nem fogjuk előre megtudni, mikor jöttek létre az első szuperintelligens gépek, mivel annak megítélése, hogy egy gép okosabb-e az embernél, ugyanabba a körbe tartozik, mint az elszigetelésükre kitalált algoritmusok problémája.

HVG


Forrás:korkep.sk
Tovább a cikkre »