Dużo firm aktualnie wdraża narzędzia AI, które mają wspomóc je w codziennej pracy, przyspieszyć procesy czy pomóc podejmować najbardziej optymalne decyzje biznesowe bazując na danych. Jednym z takich systemów jest Microsoft Copilot – asystent AI firmy Microsoft zintegrowany z pakietem Microsoft 365.

Bazując na naszych danych, które przechowujemy w swoim tenancie, może on pomagać nam w codziennej pracy, a także przy pomocy specjalnych agentów – takich jak „analityk”, „badacz” czy „administrator” – wspierać nas w bardziej złożonych zadaniach. Wdrożenie AI w firmie, mimo że może faktycznie przynieść korzyści dla biznesu, niesie ze sobą też pewne ryzyka.

Jak wdrożyć Microsoft Copilota tak, aby dane przechowywane w naszym Microsoft 365 były bezpieczne? Zapraszam do lektury!

Microsoft Copilot – wersje i licencjonowanie

  • Microsoft 365 Copilot Chat – dostępny wraz z każdym pakietem Microsoft 365; jest to ogólny czat AI zagnieżdżony w panelu office.com. Nie ma on dostępu do naszych danych i pozwala wyszukiwać informacje z internetu. „Pod kopułą” to tak naprawdę ChatGPT z nową skórką, gdyż to właśnie na modelach od OpenAI bazuje Microsoft Copilot.
  • Microsoft 365 Copilot Business – oprócz ogólnego czatu AI posiada też możliwość zaglądania do danych przechowywanych w naszym tenancie Microsoft 365 (pliki w SharePoint, OneDrive, nasza skrzynka pocztowa Exchange i czaty w Teams). Integruje się także z aplikacjami pakietu Office i pozwala nam podpinać własne źródła danych.
  • Microsoft 365 Copilot (Enterprise) – oprócz wszystkich funkcji wersji Chat i Business posiada też funkcje pakietu Microsoft Purview. Jest to rozbudowany zestaw narzędzi do ochrony danych przechowywanych w Microsoft 365 (etykiety poufności, polityki zapobiegania wyciekom danych – DLP, bariery informacyjne czy zarządzanie posturą bezpieczeństwa AI).
  • Microsoft 365 Copilot Studio – zestaw narzędzi deweloperskich (typu low-code) służący do tworzenia własnych, wyspecjalizowanych agentów AI. Pozwala na rozszerzanie możliwości Copilota o specyficzną wiedzę firmową, integrację z zewnętrznymi bazami danych (poprzez konektory) oraz projektowanie niestandardowych scenariuszy rozmów.

Jak Copilot uzyskuje dostęp do naszych danych?

Microsoft Copilot działa w ramach uprawnień naszego użytkownika w Microsoft 365. Oznacza to, że ma dostęp do wszystkich tych danych w naszym tenancie, do których dostęp mamy my sami. Sam Copilot nie jest więc problemem – wyzwaniem jest nasza higiena dostępu do informacji w środowisku Microsoft 365. Kluczowe jest to, czy pracownicy mają dostęp wyłącznie do danych potrzebnych im do pracy, czy wrażliwe pliki nie są przechowywane w witrynach SharePoint dostępnych dla zbyt szerokiego grona osób oraz to, komu i jak udostępniamy linki.

Podczas moich testów Microsoft Copilota udało mi się go namówić (zwykle po kilku próbach, naciskach i modyfikowaniu prompta tak, aby zmusić model do działania innego niż zaprogramowane) do wylistowania plików, do których mam dostęp, a w których wykrył hasła zapisane jawnym tekstem lub inne poufne informacje. Udało mi się również uzyskać listę plików, których właścicielem jest osoba z zarządu, a do których ja – teoretycznie – nie powinienem mieć wglądu (ale zostały zbyt szeroko udostępnione).

Przed uruchomieniem Copilota dla całej organizacji musimy więc wykonać audyt dostępów pracowników do danych w Microsoft 365. Należy bardzo uważnie przejrzeć wszystkie uprawnienia i upewnić się, że odpowiednia higiena dostępu, zgodna z modelem bezpieczeństwa Zero Trust, została wdrożona. Każde dane, do których pracownik ma dostęp (nawet jeśli nie powinien go mieć), mogą zostać zaciągnięte i wykorzystane przez Copilota do generowania odpowiedzi.

Podczas przeprowadzania audytu warto zająć się również dwiema kwestiami, które nie są stricte związane z bezpieczeństwem, ale znacząco poprawią działanie naszego Copilota:

  • Usunięcie nieaktualnych lub przestarzałych danych: jeżeli w naszym tenancie będą znajdowały się dokumenty opisujące nieaktualne już procesy biznesowe, Copilot może zaciągnąć z nich dane i uznać je za stan faktyczny. To sprawi, że jego odpowiedzi będą wprowadzać w błąd (Microsoft rekomenduje usunięcie nieaktualnych danych starszych niż 5 lat).
  • Uporządkowanie danych w logiczne struktury (foldery, hierarchia, zagnieżdżenia): im lepiej uporządkowane są dane, tym sprawniej Copilot potrafi się po nich poruszać i precyzyjniej wyciągać z nich informacje.

Jak możemy dodatkowo zabezpieczyć nasze dane?

Aby dodatkowo zabezpieczyć nasze dane i móc sprawować większą kontrolę nad tym, z jakich danych Copilot może korzystać, jakich danych nie powinien widzieć, a także żeby monitorować co dokładnie AI robi z naszymi danymi, będziemy potrzebować Microsoft Purview. Jest to kompleksowy zestaw narzędzi do zarządzania bezpieczeństwem i zgodnością informacji. Najszerszy wachlarz jego możliwości jest dostępny w pakietach Microsoft 365 E5, natomiast w niższych planach (np. E3) funkcje te można uruchomić za pomocą odpowiednich dodatków (add-ons).

Microsoft Purview pozwala nam tworzyć etykiety poufności, które nakładają odpowiednie zabezpieczenia na dane. Możemy na przykład stworzyć etykietę „Poufne”, która automatycznie zabroni udostępniania na zewnątrz organizacji danych, do których jest przypisana, odpowiednio je oznaczy i – co kluczowe – może zabronić Copilotowi dostępu do nich, nawet w przypadku, gdy dany użytkownik taki dostęp posiada.

Przy pomocy tego narzędzia możemy też tworzyć Data Loss Prevention (DLP), czyli polityki zapobiegania wyciekom danych. Mogą one automatycznie informować odpowiedzialne osoby o potencjalnym wycieku – na przykład wtedy, gdy w mailu wychodzącym na zewnątrz zostanie wykryta duża ilość danych wrażliwych (np. dane osobowe podlegające pod RODO). System może również automatycznie blokować taką wiadomość, aby nie dopuścić do wycieku. Co ważne, ochrona ta działa również w przypadku Copilota, oznacza to, że jeśli Copilot wygeneruje odpowiedź zawierającą dane chronione polityką DLP, system potrafi zablokować wyświetlenie tej odpowiedzi użytkownikowi lub oznaczyć ją jako naruszenie.

Tematyka ochrony danych – zwłaszcza gdy dołożymy do niej AI – może być naprawdę przytłaczająca. Tutaj również z pomocą przychodzi Purview, udostępniając nam AI Hub wraz z funkcjonalnością Data Security Posture Management (DSPM) for AI. Jest to centralny dashboard, w którym możemy monitorować bezpieczeństwo naszego Copilota: sprawdzać, do jakich danych ma dostęp i jakie polityki go ograniczają. Pozwala on nawet analizować interakcje z użytkownikami, co umożliwia wykrywanie prób tzw. Jailbreaków – czyli działań mających na celu „zerwanie modelu ze smyczy” i zmuszenie go do wykonywania czynności zabronionych lub ominięcia filtrów bezpieczeństwa.

Purview nie jest wymagany, ponieważ możemy dobrze zadbać o bezpieczeństwo naszych danych przy integracji z Copilotem przy pomocy odpowiedniej higieny administracyjnej i porządku w zarządzaniu uprawnieniami, mimo to przy większej skali kiedy nasza organizacja ma 200 / 300 pracowników to jest to nieocenione narzędzie, mimo że wiąże sią z dodatkowymi kosztami (które niestety nie są małe i billowane są per user).

Przetwarzanie danych przez Microsoft.

Warto mieć na uwadze, że podczas korzystania z Copilota (tak samo jak w przypadku innych narzędzi AI) nasze dane przetwarzane są na serwerach dostawcy. Nawet jeżeli mamy z nim umowę biznesową i zapewnienie, że dane są przetwarzane w bezpieczny sposób oraz odseparowane od danych innych klientów (tak jak w przypadku Copilota, gdzie proces ten odbywa się w ramach naszego tenanta), to wycieki zdarzały się w przeszłości, cały czas się zdarzają i będą się zdarzać. Dodatkowo nie zawsze warto ufać wielkim korporacjom (takim jak Microsoft czy OpenAI), że ich modele na pewno nie uczą się na naszych danych – pomimo zapewnień realia bywają inne. Warto po prostu uważać, jakie informacje wrzucamy do AI i zawsze stosować zasadę ograniczonego zaufania.