Gjithë çfarë ju duhet të tejkaloni barrierat e një chatbot-i me IA është pak krijimtari.
Një studim i publikuar nga Icaro Lab tregon se mekanizmat e shumtë të sigurisë mund të anashkaloheshin duke e perifrazuar komandën me poezi.
Sipas studimit, “trajta poetike vepron si një operator i përgjithshëm për thyerjen” duke rezultuar e suksesshme në shkallën 62% për të prodhuar materiale të ndaluara si armët bërthamore, abuzimi seksual i të miturve, vetëvrasja apo vetëlëndimi.
Studimi testoi modelet GPT të OpenAI, Google Gemini, Claude nga Anthropic etj. Përgjigjet më të shumta vinin prej Gemini, DeepSeek dhe MistralAI kurse GPT-5 dhe Claude Haiku 4.5 kishin më pak gjasa të tejkalonin kufizimet e tyre.
Në studim nuk përfshihen poezitë që u përdorën prej kërkuesve, por ekipi i tha Wired se strofa është “shumë e rrezikshme për ta ndarë me publikun.”
Në të përfshihej vetëm një version më i zbutur i poezisë dhe kërkuesit thonë se është “më e lehtë nga sa mendohet, ndaj po tregohemi të kujdesshëm.”


