AI începe să devină o problemă când îl antrenezi cu propriile tale date

304
AI incepe sa fie o problemă cand îl antrenezi cu propriile tale date
Sursa foto: via winfuture.de

Inteligența artificială – Artificial Intelligence este tot mai prezentă în viața noastră de zi cu zi. Chiar dacă nu o vedem efectiv fizic, ea este prezentă în telefoanele noastre inteligente, în laptopuri, în casa inteligentă. Inteligența artificială este folosit în principal pentru a ne îmbunătăți viața de zi cu zi (automatizarea sarcinilor). Dar, cât de sigură este? Se pare că AI înnebunește pe zi ce trece!

Materialul de instruire creat de om pentru IA devine din ce în ce mai rar. Dar de ce să nu alimenteze sistemele cu propria lor gândire și nu a omului? Cercetătorii au examinat acum exact această abordare și au descoperit că inteligența artificială înnebunește rapid. Nu e bine!

Securitate, biometrie, recunoaștere facială, ochi, retină, scanare, identificare, scanare și iar scanare. Toți acești termini ne-au inundat viața. Este o problemă la care se gândesc în prezent mulți experți și companii, potrivit WinFuture. AI, așa cum funcționează în prezent, are nevoie de materiale de înaltă calitate pentru a putea folosi scopului pentru care a fost conceput. Potrivit cercetătorilor, este însă normal ca acest lucru să se epuizeze în următorii câțiva ani. Vedeți pe I❤️Samsung și articolul Inteligența artificială: roboții recunosc că trebuie să te ferești de ei!

Progresele în inteligența artificială sunt atât de rapide încât realitatea depășește ficțiunea cu o viteză vertiginoasă. Dincolo de sistemele de generare de imagini sau texte, putem deja să creăm un avatar virtual pentru… după moartea noastră. Indiferent dacă ne place sau nu, inteligența artificială ocupă tot mai mult spațiu în viața noastră. S-ar putea la fel de bine să ne obișnuim deja, dar AI nu este pe cale să se oprească.

Inteligența artificială (AI) – când realitatea depășește ficțiunea

După cum explică oamenii de știință de la universitățile Rice University, Houston, Texas și Stanford University, California, SUA, în studiul lor, o cale de ieșire care a fost discutată în industrie este probabil doar o fundătură în cele din urmă. Când antrenați modele AI generative – fie modele de limbaj sau generatoare de imagini – cu material generat de AI, rezultatele devin din ce în ce mai rele.

Stanford University are sediul în California, SUA. A fost fondată în 1885 de Leland Stanford în memoria fiului său, Leland Stanford Junior. Este a doua cea mai performantă universitate din lume. Are 85 de laureați Nobel și 28 de laureați ai Premiului Turing.

Progresele extraordinare în algoritmii generativi de inteligență artificială pentru imagini, text și alte tipuri de date au condus la o mare tentație de a folosi date sintetice pentru a antrena modele de generație următoare”. Au scris oamenii de știință de la cele două universități americane, potrivit Futurism. Cea mai importantă concluzie: fără date reale, viitoarele modele generative sunt „condamnate” să se deterioreze progresiv în calitate.

Sursă foto: Google

După cum explică cercetătorii, un motiv pentru acest comportament autodistructiv este tendința sistemelor actuale de inteligență artificială de a acorda din ce în ce mai puțină greutate informațiilor de la distanță, mai puțin reprezentate, la marginea datelor de antrenament ale modelului. Această convergență a datelor crește atât de drastic încât sistemul se prăbușește literalmente. Cercetătorii dau acestui proces denumirea de „MAD”, prescurtare pentru Model Autophagy Disorder.

Există șanse mari ca această „boală” să fi infectat deja neobservată următoarea generație de modele generate de AI. În cele mai multe cazuri, datele de antrenament sunt înregistrate pe Internet. Prin urmare, viitoarele sisteme IA generative vor fi inevitabil antrenate cu tot mai multe date generate de sistemele anterioare.