Anthropic a avertizat: viitoarea modelă Claude Mythos se va transforma într-un „wonder-wah” pentru hackeri.
Încă nu există un sistem de securitate complet pentru a face față amenințărilor cibernetice generate de noile modele AI: ce trebuie să știe companiile
Când se schimbă situația, Anthropic pregătește Claude Mythos. Sistemul promite acces autonom, precis și complex la sistemele corporative, guvernamentale și municipale. Potrivit Axios, în 2026 riscul atacurilor majore cu ajutorul său va crește semnificativ. Afirmațiile despre „în avans” față de alte AI: în blogul Anthropic se spune că Mythos deja depășește orice model existent în capacitățile cibernetice și prevede o vală de atacuri care vor fi înaintea eforturilor de apărare.
Primele exemple reale
La sfârșitul anului 2025, un grup susținut de statul chinez a folosit agenți AI pentru a sparge autonom aproximativ 30 de ținte în întreaga lume. AI-ul a controlat de la 80 % la 90 % din acțiunile tactice.
Noi capacități ale sistemelor agent
Modelele moderne permit agenților să gândească, să acționeze și să improvizeze fără pauze. Scara atacului depinde acum nu de dimensiunea echipei, ci de puterea de calcul a infractorului. O singură persoană poate organiza un atac cibernetic complex.
Creșterea vulnerabilității companiilor
Angajații lansează tot mai des Claude, Copilot și alte modele agent din dispozitive personale, creând agenți proprii fără control adecvat. Aceasta deschide un nou canal de intruziune pentru infractori – „AI-ului umbrit”.
Evaluarea experților
Sondajul Dark Reading a arătat că 48 % dintre specialiștii în securitate cibernetică consideră AI-ul agent principal pentru atacuri în 2026, chiar și peste deepfake-uri și alte riscuri.
Ce trebuie să facem acum
1. Înțelegerea riscului – fiecare angajat trebuie să conștientizeze amenințarea utilizării agenților AI lângă informații confidențiale.
2. Medii izolate – lucrarea cu AI-urile agent trebuie să se desfășoare în medii sigure, izolate, fără acces direct la sistemele critice.
3. Control și audit – implementați politici stricte de control asupra creării și utilizării agenților AI proprii în cadrul organizației.
4. Formarea personalului – efectuați regulat traininguri privind utilizarea sigură a noilor tehnologii.
Această amenințare este recunoscută ca una dintre cele mai mari pentru companii în prezent, iar pregătirea pentru ea trebuie să devină o prioritate în strategia de securitate informațională.
Comentarii (0)
Împărtășește-ți opinia — te rugăm să fii politicos și să rămâi la subiect.
Autentifică-te pentru a comenta