Cei de la Anthropic, prin vocea directorului executiv Dario Amodei, au confirmat ceea ce Gadgetisimo a susținut deja de ceva vreme. Deși poate suna ca o formulare tipică din presa online, de această dată chiar este justificată.
În articolul recent în care am analizat politicile de utilizare ale asistenților AI, am explicat pe înțelesul tuturor un lucru simplu: toate discuțiile purtate cu un model AI de la principalii provideri sunt procesate și monitorizate în timp real pentru anumiți markeri.
Mai mult, informațiile rezultate din aceste conversații pot fi stocate pe serverele companiei pentru perioade care pot ajunge până la 5 ani — chiar dacă utilizatorul șterge ulterior chatul respectiv.
În acel articol am semnalat clar riscul de supraveghere în masă pe care îl presupune un astfel de mecanism, în cazul în care monitorizarea este abuzată pentru a urmări anumite patternuri sau comportamente.
Tensiunea cu Departamentul Apărării din SUA
Zilele trecute, secretarul american al Apărării, Pete Hegseth, ar fi dat companiei termen până vineri să ofere acces la varianta sa de AI fără barierele impuse prin politicile predefinite.
În caz contrar, ar fi amenințat cu întreruperea contractului de 200 de milioane de dolari și cu declararea companiei drept una „de risc”.
Răspunsul lui Dario Amodei a fost că: accesul nestingherit la Claude AI ar permite supravegherea în masă, iar acest lucru este incompatibil cu valorile democratice.
„Utilizarea acestor sisteme pentru supraveghere internă în masă este incompatibilă cu valorile democratice.”
Din declarațiile oficiale reiese și un alt aspect interesant:
Anthropic ar fi fost solicitată să pună la dispoziție tehnologia sa într-un „cadru clasificat”, așa cum ar fi făcut deja alte companii.
Cu alte cuvinte, alți jucători mari din industrie ar fi acceptat acces fără restricții în cadrul contractelor încheiate cu Ministerul Apărării din SUA.
Este aceasta o decizie curajoasă din partea Anthropic?
Sau, dimpotrivă compania ar fi trebuit să ofere accesul solicitat?
SURSA: Anthropic

