Cuprins:
Săptămâna trecută, DeepSeek a creat panică în Silicon Valley, demonstrând că se poate construi o inteligență artificială puternică cu un buget redus. Însă, relatează Bloomberg, în unele privințe, acest lucru era prea frumos pentru a fi adevărat.
Testele recente au arătat că modelele de inteligență artificială ale DeepSeek sunt mai vulnerabile la manipulare decât cele ale concurenților săi mai scumpi din Silicon Valley. Acest lucru pune sub semnul întrebării întreaga narațiune David versus Goliat privind inteligența artificială „democratizată”, care a rezultat din ascensiunea fulminantă a companiei.
Miliardele de dolari pe care OpenAI, Google și Microsoft le-au cheltuit pe infrastructura propriilor modele par acum mai puțin o risipă corporatistă și mai mult un cost necesar pentru a fi pionieri în cursa AI și pentru a menține avantajul cu servicii mai sigure.
Vulnerabilități de securitate
LatticeFlow AI, o firmă elvețiană de software care măsoară conformitatea modelelor de inteligență artificială cu reglementările, afirmă că două versiuni ale modelului R1 al DeepSeek se clasează pe ultimele locuri, printre alte sisteme de top, în ceea ce privește securitatea cibernetică.
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/192_d59c92b3fa59f33b9e60b03c92629abf.jpg)
Se pare că atunci când compania chineză a modificat modelele open-source existente de la Meta Platforms Inc. și Alibaba, cunoscute sub numele de Llama și Qwen, pentru a le face mai eficiente, este posibil să fi stricat unele dintre caracteristicile-cheie de siguranță ale acestor modele în timpul procesului.
Modelele DeepSeek erau deosebit de vulnerabile la „deturnarea obiectivelor” și la scurgerea de informații, au declarat reprezentanți ai LatticeFlow. Acest lucru se referă la situația în care o inteligență artificială poate fi păcălită să ignore măsurile de siguranță și să dezvăluie informații sensibile sau să efectueze acțiuni dăunătoare pe care ar trebui, în mod normal, să le prevină.
Implicații pentru afaceri
Când o companie își conectează sistemele la inteligența artificială generativă, de obicei va lua un model de bază de la o companie precum DeepSeek sau OpenAI și va adăuga unele dintre propriile date, indicații și logică. Însă hackerii ar putea obține un potențial acces la aceste instrucțiuni sensibile, spune Petar Tsankov, director executiv al LatticeFlow AI.
Alți cercetători în domeniul securității au investigat modelele DeepSeek și au descoperit vulnerabilități, în special în ceea ce privește determinarea modelelor să facă lucruri pe care nu ar trebui să le facă, cum ar fi oferirea de instrucțiuni pas cu pas despre cum să construiești o bombă sau să pornești o mașină fără cheie, un proces cunoscut sub numele de jailbreaking.
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/192_e3e81f0b9e1d8dbc5fbb8ebf3a357f38.jpg)
„DeepSeek este complet nesigur împotriva tuturor abordărilor de jailbreak, în timp ce modelele de raționament OpenAI și Anthropic au devenit mult mai sigure prin comparație cu versiunile lor mai vechi, fără raționament, pe care le-am testat anul trecut”, spune Alex Polakov, CEO al Adversa AI, o firmă israeliană de securitate AI care a testat modelele DeepSeek.
Soluții și compromisuri
Tsankov spune că întreprinderile dornice să folosească totuși DeepSeek datorită prețului său scăzut pot trata o problemă serioasă „cu plasturi”. Una dintre abordări ar fi adaptarea modelului DeepSeek cu instruire suplimentară, un proces care poate costa sute de mii de dolari. O altă abordare implică adăugarea unui set complet nou de instrucțiuni care să ordone modelului să nu răspundă la încercările de furt de informații.
Acoperirea fisurilor în acest mod este mai ieftină, costând mii de dolari, potrivit lui Tsankov. Când întreprinderile doresc să utilizeze inteligența artificială generativă pentru sarcini cu mize reduse, cum ar fi rezumarea rapoartelor de date pentru uz intern, aceste probleme de securitate ar putea fi un preț care merită plătit.
Impactul asupra încrederii în afaceri
Însă, în general, deficiențele de siguranță ale DeepSeek ar putea afecta încrederea în afaceri într-un moment de progres relativ lent în implementarea inteligenței artificiale. Deși aproximativ 50 de bănci mari și-au intensificat utilizarea inteligenței artificiale generative în 2024 la aproximativ 300 de aplicații, mai puțin de un sfert dintre firme au putut raporta date concrete care să indice economii de costuri, câștiguri de eficiență sau venituri mai mari, potrivit Evident Insights, o firmă de cercetare cu sediul la Londra.
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/192_6280186391521a3c597f3751fc36f08e.jpg)
Instrumentele de inteligență artificială generativă sunt, fără îndoială, inteligente și vor fi transformatoare. Dar implementarea lor în afaceri a fost intermitentă și lentă, iar o parte din motive sunt îngrijorările legate de securitate și conformitate.
Sondajele în rândul liderilor de afaceri tind să constate că între o treime și jumătate dintre aceștia au securitatea ca principală preocupare pentru inteligența artificială.
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/281_d22a9693e1aeb747d3ccd0bd3c936a25.jpg)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/153_1f91b51fe207771ef96fb4ec2a57500b.jpg)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/197_25acec5cf9c1d189a8844d052af57e25.jpg)
:quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/276_bc63aff94848582092d1c24901a74d3a.png)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/43_48530cd446bfb7abe79405ced0a90785.jpg)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/15_4e4c857ca1897bf5e403858db48c2d4e.webp)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/253_4a75cce21db396a4d9a980f3cbea6a37.jpg)
:contrast(8):quality(75)/https://www.libertatea.ro/wp-content/uploads/feed/images/190_dac807697dc26a82ee3d7aecc9cdfd8e.jpg)