stiinta

Testele care verifică siguranța și eficacitatea Inteligenței Artificiale, profund eronate

Experții au descoperit puncte slabe, unele grave, în sute de teste utilizate pentru a verifica siguranța și eficacitatea noilor modele de inteligență artificială (IA) lansate pe piață.

Informaticieni de la Institutul de Securitate IA al guvernului britanic și experți de la universități precum Stanford, Berkeley și Oxford au examinat peste 440 de teste de referință care oferă o importantă plasă de siguranță.

Ei au descoperit defecte care „subminează validitatea afirmațiilor rezultate”, că „aproape toate … au puncte slabe în cel puțin un domeniu”, iar scorurile rezultate ar putea fi „irelevante sau chiar înșelătoare”.

Defăimarea caracterului și sinucidere

Multe dintre criteriile de referință sunt utilizate pentru a evalua cele mai recente modele de IA lansate de marile companii de tehnologie, a declarat autorul principal al studiului, Andrew Bean, cercetător la Oxford Internet Institute.

În absența unei reglementări naționale privind IA în Marea Britanie și SUA, criteriile de referință sunt utilizate pentru a verifica dacă noile IA sunt sigure, se aliniază intereselor umane și își ating capacitățile declarate în materie de raționament, matematică și codificare, potrivit The Guardian.

Ancheta privind testele are loc pe fondul preocupărilor crescânde cu privire la siguranța și eficacitatea AI-urilor, care sunt lansate într-un ritm rapid de către companiile tehnologice concurente. Unele dintre acestea au fost recent obligate să retragă sau să înăsprească restricțiile privind IA-urile după ce acestea au contribuit la prejudicii variind de la defăimarea caracterului până la sinucidere.

Acuzații nefondate despre un senator american

„Criteriile de referință stau la baza aproape tuturor afirmațiilor privind progresele în domeniul IA”, a spus Bean. „Dar fără definiții comune și măsurători fiabile, devine dificil să știm dacă modelele se îmbunătățesc cu adevărat sau doar par să o facă”.

Google a retras una dintre cele mai recente IA-uri ale sale, Gemma, după ce aceasta a inventat acuzații nefondate despre un senator american care ar fi avut o relație sexuală neconsensuală cu un polițist de stat, incluzând linkuri false către știri.

„Nu a existat niciodată o astfel de acuzație, nu există o astfel de persoană și nu există astfel de știri”, a declarat Marsha Blackburn, senatoare republicană din Tennessee, într-o scrisoare adresată lui Sundar Pichai, directorul executiv al Google.

„Nu este vorba de o halucinație inofensivă. Este un act de defăimare produs și distribuit de un model de IA deținut de Google. Un instrument accesibil publicului care inventează acuzații penale false despre un senator american în funcție reprezintă un eșec catastrofal al supravegherii și al responsabilității etice”.

„Halucinațiile sunt provocări în întreaga industrie”

Google a declarat că modelele sale Gemma au fost create pentru dezvoltatorii și cercetătorii de IA, nu pentru asistență factuală sau pentru consumatori. Le-a retras de pe platforma sa AI Studio după ce a descris „rapoarte ale unor persoane care nu sunt dezvoltatori și care încearcă să le utilizeze”.

„Halucinațiile – în care modelele inventează pur și simplu lucruri despre tot felul de subiecte – și lingușirea – în care modelele spun utilizatorilor ceea ce vor să audă – sunt provocări în întreaga industrie a AI, în special în cazul modelelor deschise mai mici, precum Gemma”, a declarat compania. „Rămânem dedicați minimizării halucinațiilor și îmbunătățirii continue a tuturor modelelor noastre”.

Concluzia a fost că există o „nevoie urgentă de standarde comune și bune practici”.

Articolul Testele care verifică siguranța și eficacitatea Inteligenței Artificiale, profund eronate apare prima dată în Descopera.

Această știre a fost preluată de pe portalul amintit
Această informație preluată de pe portalul mai sus amintit, nu reprezintă o informație oficială a unei autorități, însă în latura de știre prezintă o informație veridică. potrivit legii 8/1996 știrile pot fi preluate chiar de la un portal la altul, nefiind opere sau lucrări ce necesită drept de autor, însă din spirit deontologic oferim sursa acestora.

Leontiuc Marius – senior editor




Împotriva articolelor redacției noastre, persoanele nemulțumite pot formula Contestație în termen de 10 zile de la publicarea articolului, la judecătoria Orășenească nr. 1 München Bayern Deutschland, in conformitate cu Legea federală Germană. Considerăm că nu se pot formula acțiuni la instanțele din România deoarece nici o persoană care activează în trustul nostru nu poate fi extrasă de sub jurisdicția federală germană. Considerăm că redacția noastră nu răspunde în fața autorităților din România ci doar celor federale sau civile germane. deoarece legea română nu are efecte de extraneitate asupra redacției chiar dacă subiectul știrilor face obiectul unor evenimente sau persoane din România și sunt scrise în limba română. Limba română nu este izvor de extraneitate a legii.

(Visited 22 times, 1 visits today)
Avatar
Marius Leontiuc
absolvent WEB DESIGN Academia Britanică de Comunicare Iasi - absolvent COMUNICARE IN AFACERI Academia Britanica de Afaceri si Comunicare -absolvent JURNALISM EDITORIAL - London School University - 2019 inscris la echivalare diploma la Universitatea Politehnica Timisoara - absolvent studii de Drept Universitatea Europeană Drăgan, cursuri in Drept la Universitatea de Vest Timisoara, absolvent studii de proiectare, pastor coordonator in Biserica Protestanta Evanghelica, Android Developer pe Google Play și plugin developer la Oxwall, creator de teme Wordpress și Oxwall, operator Wordpress, Drupal, Oxwall, Osclass, Moodle, tehnologii HTML și PHP
http://www.leontiucmarius.wordpress.com/cv

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *