
Proč větší AI modely reagují hůř na nepřesné zadání
Umělá inteligence nás občas překvapí paradoxními vlastnostmi. Výzkum odhaluje, proč větší a teoreticky pokročilejší jazykové modely mohou podávat horší výsledky než jejich menší sourozenci. Klíčem je rozdílný přístup k takzvanému "učení v kontextu" - schopnosti naučit se úkol z příkladů v zadání bez přetrénování. Vědci testovali modely Llama s velikostí od 3 do 70 miliard parametrů a zjistili, že menší modely se zaměřují hlavně na klíčové vzorce a ignorují šum nebo chyby. Naopak ty větší se snaží zpracovat veškeré nuance včetně nepodstatných informací a chyb. Když výzkumníci záměrně zanesli do testů nesprávné příklady nebo irrelevantní věty, výkon největších modelů klesal mnohem rychleji. Tento poznatek mění způsob, jakým bychom měli AI vybírat a používat - větší není vždy lepší a kvalita zadání je u velkých modelů naprosto zásadní.#konverzace
Podcast Uměligence je vložený na túto stránku z otvoreného informačného zdroja RSS. Všetky informácie, texty, predmety ochrany a ďalšie metadáta z informačného zdroja RSS sú majetkom autora podcastu a nie sú vlastníctvom prevádzkovateľa Podmaz, ktorý ani nevytvára ani nezodpovedá za ich obsah podcastov. Ak máš za to, že podcast porušuje práva iných osôb alebo pravidlá Podmaz, môžeš nahlásiť obsah. Ak je toto tvoj podcast a chceš získať kontrolu nad týmto profilom klikni sem.