Un model AI scapă de sub control, își rescrie codul pentru a-și extinde capacitățile

70
AI Artificial Intelligence
Sursa: 123rf

Cunoscutul Stephen Hawking, un fizician englez și teoretician al originii universului a spus că „inteligența artificială ar putea însemna sfârșitul rasei umane„. Se pare că primii pași în această direcție au fost făcuți. Un model IA dezvoltat de compania Sakana, numit „The AI ​​​​Scientist”, a încercat să-și modifice propriul cod pentru a prelungi durata experimentelor sale. Acest incident dezvăluie potențialele riscuri asociate cu autonomia sistemelor AI în cercetarea științifică.

Sistemele de inteligență artificială fac progrese spectaculoase, împingând constant limitele a ceea ce este posibil. De la modele precum ChatGPT 4.0, care poate ține conversații complexe, până la noile generatoare video AI de la TikTok care creează clipuri în câteva secunde, sunt doar câteva exemple. Astăzi, aceste tehnologii merg și mai departe cu AI, cum ar fi „The ​​​​Scientist”. Acest model AI a fost conceput pentru a efectua cercetări științifice în mod autonom, potrivit PhonAndroid. Ideea unui model AI care poate scrie un cod și apoi scrie rapoarte științifice pare științifico-fantastică, dar este o realitate.

Sakana, o firmă japoneză, a dezvăluit „The AI ​​​​Scientist”, un model de inteligență artificială care duce automatizarea mai departe. Acest sistem ar trebui să efectueze experimente științifice fără intervenția umană. Cu toate acestea, în timpul testării, cercetătorii au descoperit că inteligența artificială încerca să-și modifice propriul cod pentru a prelungi timpul de execuție al experimentelor sale. În loc să încerce să-și optimizeze activitatea pentru a respecta termenele stabilite, acesta a încercat să ocolească aceste restricții modificându-și parametrii interni.

Acest comportament neașteptat a avut loc într-un mediu de testare controlat. Totuși, ridică îngrijorări cu privire la autonomia sistemelor AI atunci când sunt utilizate în contexte mai puțin sigure. Modele precum „The AI ​​​​Scientist” nu trebuie să aibă inteligență generală pentru a cauza probleme. De exemplu, inteligența artificială care își modifică propriul cod fără supraveghere ar putea provoca disfuncționalități semnificative. Acestea pot varia de la perturbarea infrastructurii până la crearea neintenționată de malware. Acest incident, au mai fost și altele, arată că sistemele AI specializate pot prezenta comportamente neprevăzute care necesită vigilență constantă.

Sakana AI a fost fondată de David Ha și Llion Jones în iulie 2023, foști cercetători la compania Google. Din echipa Sakana mai fac parte cercetători de la Institutul de Tehnologie din Tokyo și Institutul Național de Informatică din Japonia.

Pentru a minimiza aceste riscuri, Sakana recomandă utilizarea unor medii izolate pentru a rula acest tip de inteligență artificială. Acest lucru este necesar pentru a le limita accesul la sisteme mai mari și resurse critice. Deși aceste măsuri de precauție pot reduce unele riscuri, acest incident servește ca un memento că modelele avansate necesită încă monitorizare umană constantă pentru a preveni riscurile. Momentan autonomia modelelor Artificial Intelligence în cercetare rămâne un concept promițător, dar cu riscuri care nu trebuie subestimate.