Společnost Anthropic způsobila poprask, když ve čtvrtek 22. května představila své zatím nejvýkonnější systémy umělé inteligence Claude 4 Opus a Claude 4 Sonnet. Nejprve zaujala jejich schopnost přesně se řídit příkazy a pracovat v režimu agentů na úkolu i sedm hodin v kuse.

Krátce poté specialista společnosti Anthropic zveřejnil zprávu, podle níž může nový Opus upozornit policii a další úřady v případě, že uživatel dělá něco jednoznačně nezákonného a nemorálního, nebo může vydírat své tvůrce ve snaze zabránit svému smazání. Původní příspěvek Sama Bowmana na síti X bylo snadné vytrhnout z kontextu, celá situace je mnohem složitější.

Zbývá vám ještě 90 % článku

Co se dočtete dál

  • Za jakých podmínek sahala umělá inteligence k „bonzáctví“ a vydírání svých tvůrců a uživatelů?
  • Jaký bezpečnostní problém se objevil u modelů od OpenAI?
  • Proč snaha o „dobrou výchovu“ umělé inteligence může být kontraproduktivní?
První 2 měsíce předplatného za 40 Kč
  • První 2 měsíce za 40 Kč/měsíc, poté za 199 Kč měsíčně
  • Možnost kdykoliv zrušit
  • Odemykejte obsah pro přátele
  • Všechny články v audioverzi + playlist
Máte již předplatné?
Přihlásit se

Baví vás moderní technologie? To byste si neměli nechat ujít newsletter Týden s technologiemi, díky kterému dostanete do téměř pravidelného pátečního e-mailu to nejzajímavější dění a produktové novinky za celý týden.