Gadgetisimo » AI » Microsoft Copilot divulgă emailuri și date sensibile
Poza principala articol

Microsoft Copilot divulgă emailuri și date sensibile

Într-un raport publicat de Business Insider și citat de Winfuture, se pare că Microsoft se confruntă cu acuzații conform cărora asistentul AI Copilot ar fi pus la dispoziția angajaților unei companii documente și corespondență conținând date sensibile. Mai precis, angajații companiei ar fi avut acces la documente ale departamentului de resurse umane și la emailuri ale șefului lor prin intermediul Copilot. Acest acces, în mod normal, nu ar fi trebuit să fie posibil.

Microsoft a negat că vina ar aparține asistentului AI și a susținut că structurile deficitare de organizare a identităților și gestionare a datelor din cadrul companiilor sunt cele care fac posibile astfel de situații. Un purtător de cuvânt a explicat: „Multe dintre provocările legate de gestionarea datelor asociate cu inteligența artificială nu au fost cauzate de inteligența artificială în sine.”

Cauza principală este modul de funcționare al modelelor AI, precum Copilot, în combinație cu politicile slabe de gestionare a datelor din cadrul companiilor. Acest lucru duce la situații precum cea menționată, în care informațiile sensibile devin accesibile angajaților neautorizați.

Cu toate acestea, Microsoft a reacționat și oferă acum instrumente și ghiduri pentru identificarea și corectarea problemelor legate de protecția datelor. Aceste soluții sunt disponibile sub forma unui Deployment Blueprint, menit să ajute administratorii să evite sau să rezolve situațiile în care datele sensibile sunt partajate neintenționat în cadrul implementării Copilot.

Blueprint-ul este disponibil prin canalele oficiale Microsoft și este conceput pentru a face utilizarea Copilot mai sigură. Pe scurt, Microsoft subliniază că organizațiile care nu au implementat un concept matur de roluri și permisiuni pot întâmpina situații similare.

Acest aspect este confirmat de cerințele de implementare ale Copilot, la capitolul „Roluri și Privilegii”: „Microsoft 365 Copilot for Service uses your organization’s existing access controls and user permissions”, conform site-ului oficial Microsoft.

Totuși, mă întreb: dacă organizația respectivă avea deja permisiuni de acces și gestionare a datelor deficitare, acest lucru nu ar fi trebuit să fie vizibil și în acțiunile utilizatorilor înainte de implementarea Copilot? Sau poate aceste deficiențe nu erau evidente în interacțiunile umane și au fost scoase la lumină de indexarea făcută de Copilot?

Din păcate nu se precizează în care dintre tool-urile Microsoft, Teams, Onedrive, Sharepoint etc a fost identificată problema permisiunilor.  Indiferent de explicație sau tool, pare că specialiștii IT din cadrul companiei nu și-au făcut treaba cum trebuie. 🙂

Sursa: Photo by Pexels


Back To Top