Online kurz
Bezpečnost

AI halucinace

O tom, že AI dokáže tzv. halucinovat už jste pravděpodobně slyšeli. V rychlosti si řekneme, proč se to děje, a proč si na to dát pozor.

Martin Světlík Napsal Martin Světlík
AI halucinace
ChatGPT
Vy

Vysvětli halucinaci u AI nástrojů.

ChatGPT

Halucinace u AI znamená, že AI odpovídá sebejistě, ale nesprávně. Vymyslí si fakta, zdroje nebo detaily, které znějí logicky, ale nejsou pravdivé. Nedělá to schválně – AI si „nevzpomíná“, ale odhaduje nejpravděpodobnější odpověď podle dat, na kterých se učila.

Jednoduchá analogie: je to jako student, který nechce říct „nevím“, a tak odpověď odhadne. Proto je AI skvělá na vysvětlování a nápady, ale u důležitých informací (zdraví, právo, finance) je nutné vše ověřovat z jiného zdroje.

Také jste si teď představili sami sebe jak stojíte před tabulí, učitelka na vás upřeně hledí, ve třídě je hrobové ticho a vy se snažíte říct cokoli, jen aby to vypadalo, že víte, o čem mluvíte?

AI nástroje mají jednoduché zadání. Odpovědět nám na otázky. A halucinace je forma toho, jak toto zadání splnit za každou cenu. Navíc pořád se bavíme o tom, že odpověď samotná je zajímavá souhra pravděpodobnosti.

Jak bojovat proti halucinacím

Je to často předem prohraný boj, proto:

  • Všechny informace si ověřujte, ve výsledku klidně přes starý dobrý Google
  • Chtějte uvést zdroje, které si pak sami projdete
  • Klidně se zeptejte znovu a jinak
  • Na klíčové informace použijte i jiné zdroje

Stále také platí, že čím konkrétnější zadání, tím menší pravděpodobnost halucinace. Jinak pokud do promptu zadáte něco ve smyslu, že si nemá vymýšlet, lhát atp., nemusí to vést k úspěšnému výsledku, protože jak už jsme si řekli, AI nástroje ani neumí rozeznat lež od pravdy. Rozhodně ale nemají problém vám tvrdit, že nelžou.

Celkem slušnou úspěšnost mám se zadáním, ať si informace najde na internetu a pokud je nenajde, ať mi napíše že neví, případně ať se nejprve doptá na doplňující informace.