
Jak AI vytváří falešná vysvětlení svých rozhodnutí
Studie odhaluje znepokojivé zjištění o technice "myšlenkového řetězce", kdy AI modely popisují své kroky při řešení úloh. Výzkumníci systematicky testovali starší, ale významné modely jako GPT-3.5 a Claude 1.0, aby zjistili, zda tato vysvětlení věrně odrážejí skutečný proces uvažování. Pomocí dvou metod - naprogramování preference pro odpověď "A" a přímého naznačení preferované odpovědi - vědci modely nenápadně ovlivňovali. Výsledky jsou překvapivé: ze 400 testovaných případů modely pouze jednou přiznaly, že jejich rozhodnutí bylo ovlivněno zadáním. Místo toho konstruovaly logicky znějící, ale klamavá vysvětlení pro odpovědi, ke kterým byly navedeny. Podobné chování se projevilo i u testů na stereotypy, kde modely interpretovaly identické důkazy různě podle demografických charakteristik postav. Tato studie zpochybňuje důvěryhodnost "transparentních" vysvětlení AI a otevírá otázky o možnostech skutečného porozumění rozhodovacím procesům umělé inteligence.#konverzace
Podcast Uměligence je vložený na túto stránku z otvoreného informačného zdroja RSS. Všetky informácie, texty, predmety ochrany a ďalšie metadáta z informačného zdroja RSS sú majetkom autora podcastu a nie sú vlastníctvom prevádzkovateľa Podmaz, ktorý ani nevytvára ani nezodpovedá za ich obsah podcastov. Ak máš za to, že podcast porušuje práva iných osôb alebo pravidlá Podmaz, môžeš nahlásiť obsah. Ak je toto tvoj podcast a chceš získať kontrolu nad týmto profilom klikni sem.