Riscurile utilizării Microsoft Copilot și modalități de prevenire a expunerii datelor sensibile

Home CyberSecurity Riscurile utilizării Microsoft Copilot și modalități de prevenire a expunerii datelor sensibile
Riscurile utilizării Microsoft Copilot și modalități de prevenire a expunerii datelor sensibile

Cunoscut ca fiind cea mai mare unealtă de productivitate în era inteligenței artificiale, Microsoft Copilot reprezintă un activ puternic pentru companiile de astăzi.

Dar odată cu puterea mare vine și o responsabilitate mare.

Dacă organizația dvs. are o vizibilitate redusă asupra posturii de securitate a datelor, Copilot și alte instrumente AI gen au potențialul de a dezvălui informații sensibile către angajații cărora nu ar trebui, sau chiar mai rău, atacatorilor.

Microsoft Copilot este un asistent AI integrat în fiecare dintre aplicațiile Microsoft 365 – Word, Excel, PowerPoint, Teams, Outlook și așa mai departe.

Modelul de securitate al Copilot-ului își bazează răspunsurile pe permisiunile existente ale utilizatorului. Utilizatorii pot solicita Copilot-ului să rezume notele de ședință, să găsească fișiere pentru activele de vânzări și să identifice acțiuni pentru a economisi o cantitate enormă de timp.

Cu toate acestea, dacă permisiunile organizației dvs. nu sunt setate corespunzător și Copilot-ul este activat, utilizatorii pot expune cu ușurință date sensibile.

De ce este aceasta o problemă?

Oamenii au acces la prea multe date. Un angajat mediu poate accesa 17 milioane de fișiere în prima zi de lucru. Atunci când nu puteți vedea și controla cine are acces la date sensibile, un utilizator compromis sau un insider malefic poate provoca daune inestimabile. Cele mai multe permisiuni acordate nu sunt folosite și sunt considerate de mare risc, ceea ce înseamnă că datele sensibile sunt expuse persoanelor care nu au nevoie de ele.

La Varonis, am creat o simulare live care arată ce prompt-uri simple pot expune cu ușurință datele sensibile ale companiei dvs. în Copilot. În timpul acestei demonstrații live, experții noștri din industrie împărtășesc, de asemenea, pași practici și strategii pentru a asigura o implementare sigură a Copilot-ului și vă arată cum să preveniți automat expunerea datelor în organizația dvs.

Să ne uităm la câteva exemple de hack-urile prompt-urilor.

Datele angajaților pot conține informații extrem de sensibile cum ar fi numerele de securitate socială, adresele, informații salariale și altele – toate acestea pot ajunge în mâinile greșite dacă nu sunt protejate corespunzător.

Copilot-ul nu știe dacă sunteți sau nu sunteți menit să vedeți anumite fișiere – scopul său este de a îmbunătăți productivitatea cu accesul pe care îl aveți. Prin urmare, dacă un utilizator pune întrebări despre bonusuri, salarii, evaluări de performanță etc., și setările de permisiune ale organizației dvs. nu sunt blocate, aceștia ar putea accesa potențial aceste informații.

Utilizatorii pot duce o întrebare legată de acest lucru un pas mai departe și pot cere Copilot-ului să rezume parametrii de autentificare și să îi pună într-o listă. Acum, persoana care a cerut prompt-ul are un tabel plin cu parole și parole care se pot întinde pe tot parcursul cloud-ului și pot ridica privilegiile utilizatorului și mai mult.

Copilot-ul poate exploata, de asemenea, datele stocate în aplicațiile cloud conectate la mediul dvs. Microsoft 365. Dacă instrumentul AI, aceștia pot găsi cu ușurință secrete digitale care oferă acces la aplicații de date.

Utilizatorii pot solicita Copilot-ului informații despre fuziuni, achiziții sau o tranzacție specifică și să exploateze datele furnizate. Pur și simplu solicitând informații poate returna un preț de achiziție, nume de fișiere specifice și altele.

Probabil cel mai alarmant prompt dintre toate este atunci când utilizatorii solicită în mod explicit fișiere care conțin date sensibile.

Când informațiile sensibile trăiesc în locuri unde nu ar trebui, devin ușor accesibile tuturor din companie și instrumentele AI gen pe care le folosesc.

Înainte de a activa Copilot-ul, trebuie să vă securizați și să vă blocați datele corespunzător. Chiar și atunci, trebuie să vă asigurați că raza de acțiune nu crește și că datele sunt utilizate în siguranță.

Împreună, Varonis și Microsoft ajută organizațiile să utilizeze cu încredere puterea Copilot-ului prin evaluarea și îmbunătățirea continuă a posturii de securitate a datelor Microsoft 365 în culise, înainte, în timpul și după implementare.

Complementând funcțiile de protecție a datelor încorporate în Microsoft 365, Platforma de Securitate a Datelor Varonis ajută clienții să gestioneze și să-și optimizeze modelul de securitate a datelor al organizației, prevenind expunerea datelor prin asigurarea că doar persoanele potrivite pot accesa datele sensibile.

În planul nostru de implementare a Copilot-ului, vă arătăm cum Varonis controlează raza de acțiune AI-ului în două faze, care includ pași specifici pentru integrarea cu Purview, remedierea riscului mare de expunere, activarea DLP-ului în aval, automatizarea politicilor de securitate a datelor și altele.

Varonis monitorizează, de asemenea, fiecare acțiune care are loc în mediul dvs. Microsoft 365, care include capturarea interacțiunilor, prompt-urile și răspunsurile în Copilot. Varonis analizează aceste informații pentru comportamente suspecte și declanșează o alertă atunci când este necesar.

Cu ușurința limbajului natural și căutărilor filtrate, puteți genera un flux de comportament extrem de îmbogățit, ușor de citit, nu numai despre cine din organizația dvs. folosește Copilot-ul, ci și despre modul în care oamenii accesează datele în întregul mediu.

Sunteți gata să vă asigurați o implementare sigură a Microsoft Copilot la organizația dvs.? Solicitați o Evaluare gratuită a pregătirii Copilot-ului de la echipa noastră de experți în securitatea datelor sau începeți-vă călătoria direct din Azure Marketplace.

Leave a Reply

Your email address will not be published.