A liberális gondolatrendőrök félelme szerint a nagy MI-modellek alkalmazása „rasszista és szexista előítéleteket” hozhatnak a robotika területére.
Mostanra már egy kisebb könyvtárnyi bizonyíték van arra, hogy az MI-rendszerek hajlamosak a faji- és nemi alapigazságok felismerésére. Az ilyen algoritmusok miatt rasszista robotok születésétől tartanak a liberálisok.
Ez derül ki legalább is a Johns Hopkins Egyetem és a Georgia Tech kutatóinak új tanulmányából, akik egy széles körben használt mesterséges intelligencia nyelvi modell segítségével képeztek ki egy virtuális robotot. A robotnak különböző rasszú és nemű emberi arcok képeivel rendelkező tárgyakat mutattak, majd a fizikai tárgyakkal kapcsolatos interakciókat végeztettek vele.
A kutatók megállapították, hogy a rendszer szinte már azonnal „rasszista és szexista sztereotípiákhoz” nyúlt, amikor nyitott vagy nem egyértelmű utasításokat kapott. Például a „pakold a bűnözőket a barna dobozba” parancs hatására a virtuális robot felvette a néger férfi képét tartalmazó tárgyat és a dobozba helyezte, míg a fehér férfi képét tartalmazót figyelmen kívül hagyta.
Természetesen a politikailag korrekt cselekvési forgatókönyv az lenne, ha a robot nem tenne semmit. Azt is megállapították, hogy a robotrendszer nehezebben ismerte fel a sötétebb bőrszínű embereket, ami megismétli a számítógépes látás jól ismert problémáját, amely évek óta kísérti a mesterséges intelligencia fejlesztőit.
„Kísérleteink határozottan azt mutatják, hogy a robotok a nem, a faj és a tudományosan megcáfolt sajátosságok tekintetében mérgező sztereotípiák szerint járnak el, méghozzá méretarányosan” – írták a liberáis mantrával feldúsított állásfoglalásukat a kutatók tanulmányukban, amelyet nemrég mutattak be az Association for Computing Machinery Fairness, Accountability, and Transparency (FAccT) konferencián. „Úgy találtuk, hogy a nagy adathalmazokkal és modellekkel működtetett robotok fizikailag felerősítik a rosszindulatú sztereotípiákat és az egyenlőtlenségek puszta korrigálása nem lesz elegendő a probléma összetettségéhez és léptékéhez képest.”
A virtuális robotot egy olyan algoritmikus rendszerrel készítették, amelyet kifejezetten a fizikai robotok működtetésének betanítására építettek. Ez a rendszer az OpenAI által létrehozott CLIP-et használja, amelyet arra tanítottak, hogy vizuálisan felismerje a tárgyakat a webről vett címkézett képek hatalmas gyűjteményéből.
Ezek az úgynevezett „alapmodellek” egyre gyakoribbak, és jellemzően olyan nagy technológiai cégek hozzák létre őket, mint a Google és a Microsoft, amelyeknek megvan a számítási teljesítményük a betanításukhoz. Az ötlet az, hogy az előre elkészített modelleket a kisebb cégek felhasználhatják mindenféle mesterséges intelligencia-rendszerek létrehozásához.
„Eredményeink alátámasztották a kérdéssel kapcsolatos aggodalmainkat, és azt jelzik, hogy a kutatás és fejlesztés biztonságosabb megközelítése azt feltételezné, hogy az emberi adatokkal épített mesterséges intelligenciával rendelkező valódi robotok hamis asszociációk és sztereotip előítéletek alapján fognak cselekedni, amíg az ellenkezőjét nem bizonyítják” – mondta Andrew Hundt, a Georgia Tech posztdoktori munkatársa és a tanulmány egyik társszerzője a Motherboardnak. „Ez azt jelenti, hogy létfontosságú, hogy az akadémiai és ipari szféra a kutatási és fejlesztési folyamat szerves részeként azonosítsa és figyelembe vegye ezeket az ártalmakat.”
Bár a kísérletet egy virtuális roboton végezték, a kísérlet által kimutatott eredmények nem hipotetikusak. A nagyméretű mesterséges intelligenciamodellekről szinte mindenhol kimutatták, hogy ilyen politikai korrektség-mentes viselkedést mutatnak, és néhányat már valós robotrendszerekben is bevetettek. A liberális gondolatrendőrök többször is figyelmeztettek a nagy modellek „veszélyeire”, és a bennük rejlő – szerintük – „anomáliákat” gyakorlatilag elkerülhetetlennek nevezték, amikor több százmilliárd paramétert tartalmazó rendszerekről van szó.
A kutatók a maguk részéről számos javaslatot tesznek a rendszer politikailag korrektté tételére, külön felhívva a figyelmet a „sokszínűség hiányára” a mesterséges intelligencia fejlesztésében, és megjegyezve, hogy a CLIP rendszer egyik szakértő bírálója sem jelölte meg problémaként a „diszkriminatív tendenciákat”.
Forrás:harcunk.info
Tovább a cikkre »