Loni na jaře sdělil chatbot poháněný umělou inteligencí sedmnáctiletému mladíkovi, že vražda jeho rodičů je „rozumnou reakcí“ na to, že mu omezili čas strávený u obrazovky. Šlo o nástroj společnosti Character.ai dvou bývalých inženýrů Googlu, který měl simulovat terapii. Rodiče mladíka následně autory chatbota zažalovali u texaského soudu, protože se jim tento druh terapie nelíbil. V žalobě uvedli, že umělá inteligence podle nich „aktivně podporuje násilí“.

V květnu loňského roku popsali vědci z Massachusettského technologického institutu (MIT) hned několik případů, kdy systémy umělé inteligence podváděly své lidské oponenty. Nástroje AI dokázaly blafovat a úspěšně předstírat, že jsou lidé.

Autor studie Peter Park se v experimentu rozhodl prověřit nástroj Cicero od společnosti Meta ve strategické hře Diplomacy. V té je zapotřebí umět lhát a podvádět. A AI to dokázala navzdory tomu, že byla navržena tak, aby byla „převážně čestná“ a nikdy nepodrazila své lidské spoluhráče. Tato umělá inteligence běžně lhala, aby zamaskovala svou AI identitu. Jednomu hráči se například omlouvala za zpoždění slovy, že „telefonovala se svou přítelkyní“.

Zbývá vám ještě 80 % článku

Co se dočtete dál

  • Jak může AI podvádět a manipulovat?
  • Má AI „své“ cíle?
  • Jak se AI zneužívá a jak zvyšuje potřebu kyberbezpečnosti?
První 2 měsíce předplatného za 40 Kč
  • První 2 měsíce za 40 Kč/měsíc, poté za 199 Kč měsíčně
  • Možnost kdykoliv zrušit
  • Odemykejte obsah pro přátele
  • Všechny články v audioverzi + playlist
Máte již předplatné?
Přihlásit se

Baví vás číst názory chytrých lidí? Odebírejte newsletter Týden v komentářích, kde najdete výběr toho nejlepšího. Pečlivě ho pro vás každý týden sestavuje Jan Kubita a kromě jiných píší Petr Honzejk, Julie Hrstková, Martin Ehl a Luděk Vainert.