Uniós megállapodás született a hamis szexuális képeket generáló mesterséges intelligencia betiltásáról

Uniós megállapodás született a hamis szexuális képeket generáló mesterséges intelligencia betiltásáról

A tagállamok és az Európai Parlament megállapodásra jutott a mesterséges intelligencia (MI) olyan szolgáltatásainak betiltásáról az unióban, amelyek hamis szexuális és intim tartalmakat hoznak létre, vagy gyermekek szexuális bántalmazását ábrázoló anyagokat generálnak – tájékoztatott az Európai Unió Tanácsa és az uniós parlament csütörtökön.

A brüsszeli közlemény szerint a társjogalkotók közötti megállapodás célja, hogy megkönnyítse a szolgáltatók számára a mesterséges intelligenciára vonatkozó uniós rendelet betartását, miközben megőrzi annak fő rendelkezéseit és kockázatalapú megközelítését.

A felek olyan új, uniós tilalmat tartalmazó rendelkezéssel egészítették ki a szabályozást, amely a gyermekpornográfiát ábrázoló képek, videók és hanganyagok létrehozására, azonosítható személyek „lemeztelenítésére”, vagy szexuális tevékenység közbeni ábrázolására vonatkoznak a beleegyezésük nélkül.

A tilalom a szexuális, vagy intim tartalom létrehozást lehetővé tevő mesterségesintelligencia-rendszerek forgalomba hozatalára vonatkozik az EU piacán.

Hírdetés

Az új szabályozás végleges elfogadása esetén december 2-án lép hatályba. Addig a mesterséges intelligenciát alkalmazó szolgáltatóknak olyan biztosítékokat kell kidolgozniuk, amelyek megakadályozzák az ilyen tartalmak létrehozását.

A megállapodás továbbá egyértelművé teszi, hogy a mesterségesintelligencia-rendszereket ellenőrző uniós hivatal milyen hatáskörökkel rendelkezik az általános célú MI-modelleken alapuló rendszerek felügyeletét illetően, és felsorolja azokat a kivételeket, melyek esetében továbbra is a nemzeti bűnüldözési, határigazgatási és igazságügyi hatóságok és pénzügyi intézmények maradnak illetékesek.

Az ideiglenes megállapodást most az Európai Unió Tanácsának és az Európai Parlamentnek is jóvá kell hagynia.

MTI/Felvidék.ma


Forrás:felvidek.ma
Tovább a cikkre »