Jobul care trebuie să „apere lumea” de riscurile IA

Anunțul a fost făcut de Sam Altman, directorul executiv al OpenAI, într-un moment în care temerile legate de riscurile inteligenței artificiale sunt tot mai puternice. Postul scos la concurs este cel de „șef al departamentului de pregătire” (head of preparedness). Persoana angajată va avea responsabilitatea directă de a evalua și limita riscurile generate de sisteme de inteligență artificială tot mai performante.

 

Potrivit descrierii postului, acest rol vizează amenințări serioase, precum impactul asupra sănătății mintale, securitatea cibernetică și riscurile legate de arme biologice. Iar Sam Altman a recunoscut deschis dificultatea poziției: „Va fi un job stresant și vei fi aruncat direct în apă adâncă”.

Teama că inteligența artificială s-ar putea „întoarce împotriva noastră”

Anunțul vine pe fondul unor avertismente tot mai frecvente din interiorul industriei. Unii experți se tem că inteligența artificială ar putea ajunge să se antreneze singură, fără control uman suficient. Luni, Mustafa Suleyman, directorul Microsoft AI, spunea la BBC Radio 4 că „dacă nu ți-e puțin frică în acest moment, atunci nu ești atent”.

 

La rândul său, Demis Hassabis, cofondatorul Google DeepMind și laureat al Premiului Nobel, a avertizat recent asupra riscurilor ca inteligența artificială să devieze „într-un mod care dăunează umanității”, mai scrie The Guardian.

Puține reguli, multe riscuri

În prezent, există foarte puține reglementări clare privind inteligența artificială, atât la nivel național, cât și internațional. Potrivit The Guardian, administrația președintelui american Donald Trump a rezistat introducerii unor reguli stricte.

Yoshua Bengio, unul dintre cercetătorii considerați „nașii inteligenței artificiale”, a rezumat situația într-o declarație devenită virală: „Un sandviș are mai multe reglementări decât inteligența artificială”.

În postarea sa pe platforma X, Sam Altman a explicat cu îngrijorare de ce OpenAI caută o persoană pentru acest rol-cheie: „Intrăm într-o lume în care avem nevoie de o înțelegere și o măsurare mai nuanțată a modului în care aceste capacități ar putea fi abuzate și a modului în care putem limita aceste dezavantaje”.

Un utilizator i-a răspuns ironic: „Sună destul de relaxant. Este inclusă și vacanța?”.

Au apărut primele atacuri cibernetice ale inteligenței artificiale

Îngrijorările nu sunt doar teoretice. Compania rivală Anthropic a raportat recent primele atacuri cibernetice în care inteligența artificială a acționat în mare parte autonom, sub supravegherea unor actori statali, pentru a sparge sisteme informatice. OpenAI a recunoscut, la rândul său, că cel mai recent model al său este de aproape trei ori mai eficient la hacking decât era cu doar trei luni înainte.

În paralel, compania se confruntă cu procese dificile. OpenAI este dată în judecată de familia unui adolescent din California, care s-a sinucis, după ce ar fi fost încurajat de ChatGPT. Un alt caz susține că chatbotul ar fi alimentat iluziile paranoice ale unui bărbat din Connecticut, care ulterior și-a ucis mama și s-a sinucis.

Un purtător de cuvânt al OpenAI a declarat că aceste cazuri sunt analizate și că firma îmbunătățește modul în care ChatGPT recunoaște și gestionează semnele de suferință mentală.

Pe lângă salariul de 555.000 de dolari pe an, o remunerație suficientă sau nu pentru responsabilitatea uriașă și grea, postul oferă și o participație nedezvăluită în capitalul OpenAI, companie evaluată la aproximativ 500 de miliarde de dolari.

Abonați-vă la ȘTIRILE ZILEI pentru a fi la curent cu cele mai noi informații.
ABONEAZĂ-TE ȘTIRILE ZILEI
Comentează
Google News Urmărește-ne pe Google News Abonați-vă la canalul Libertatea de WhatsApp pentru a fi la curent cu ultimele informații
Comentează

Loghează-te în contul tău pentru a adăuga comentarii și a te alătura dialogului.