Sfida e Inteligjencës Artificiale, pse chatbot-ët kalojnë në halucinacione

Më datë:

Grupet kryesore të inteligjencës artificiale në botë po rrisin përpjekjet për të ulur numrin e “halucinacioneve” në modelet e mëdha gjuhësore, ndërsa përpiqen të zgjidhin një nga pengesat më të mëdha që kufizon përhapjen e kësaj teknologjie të fuqishme.

Google, Amazon, Cohere dhe Mistral janë ndër kompanitë që po përpiqen të ulin shkallën e këtyre përgjigjeve të sajuara duke prezantuar zgjidhje teknike, përmirësuar cilësinë e të dhënave në modelet e tyre të AI-t dhe duke ndërtuar sisteme verifikimi dhe kontrolli faktesh në të gjithë produktet e tyre të Inteligjencës Artificiale gjeneruese.

Kjo përpjekje për të reduktuar të ashtuquajturat halucinacione shihet si thelbësore për të rritur përdorimin e mjeteve të AI-it në industri si juridiku dhe shëndetësia, të cilat kërkojnë informacion të saktë, si dhe për të ndihmuar në rritjen e të ardhurave të sektorit të AI-it.

Kjo ndodh ndërkohë që gabimet e chatbot-ëve tashmë kanë shkaktuar pasoja të kushtueshme dhe çështje ligjore. Vitin e kaluar, një gjykatë urdhëroi linjën ajrore të fluturimeve Air Canada që të respektonte një zbritje të sajuar nga chatbot-i i shërbimit të vet ndaj klientit, dhe avokatë që kanë përdorur mjete të AI-it në dokumente gjyqësore janë përballur me sanksione pasi AI kishte trilluar citime.

Por ekspertët e AI-it paralajmërojnë se eliminimi i plotë i halucinacioneve nga modelet e mëdha gjuhësore është i pamundur për shkak të mënyrës se si funksionojnë këto sisteme.

“Halucinacionet janë një problem shumë i vështirë për t’u zgjidhur për shkak të natyrës probabilistike të mënyrës se si funksionojnë këto modele,” tha Amr Aëadallah, ish-ekzekutiv i Google dhe themelues i Vectara, një start-up i agjentëve të Inteligjencës Artificiale gjeneruese. “Nuk do të mund t’i bëni kurrë që të mos halucinojnë.”

Këto gabime ndodhin sepse modelet e mëdha gjuhësore janë të dizajnuara për të parashikuar fjalën e radhës më të mundshme në një fjali, bazuar në statistikat që kanë mësuar nga të dhënat e trajnimit.

Këto gabime mund të shfaqen si pasaktësi faktike ose si mospërputhje me udhëzimet, si për shembull përmbledhja e ngjarjeve nga një vit i gabuar. Të dhënat që hyjnë në setin trajnimor të një modeli AI janë thelbësore, sepse sa më shpesh të paraqitet një informacion, aq më e madhe është mundësia që modeli ta përsërisë atë.

Shpërndarje

spot_imgspot_img

Më të fundit

Më shumë si kjo
Të ngjashme

Automjeti i punonjësit të policisë në Vlorë digjet, hetime për urdhër kriminal nga burgu

Digjet qëllimisht një automjet në pronësi të një punonjësi...

Protesta dhe përplasjet, Berisha ngre akuza për përdorim të mjeteve të forta nga policia

Një ditë pas protestës së PD, Berisha ka dënuar...

Nga “Mine Peza”, Balliu denoncon dhunën dhe akuzon policinë

Nga “Mine Peza”, ku vizitoi të ndaluarit e protestës...