Zwiń

Nie masz konta? Zarejestruj się

Jak mówić wprost i bez owijania o Ochronie Danych Osobowych?

Ten tekst przeczytasz w 1 minutę
Monika Zygmunt-Jakuć – Inspektor Ochrony Danych i Prezes Zarządu „bez owijania” Sp. z o.o.
Monika Zygmunt-Jakuć – Inspektor Ochrony Danych i Prezes Zarządu „bez owijania” Sp. z o.o.
Materiały prasowe

Spółka „bez owijania” to istotne wsparcie dla firm, instytucji i osób prywatnych, która realizuje swoje działania na czterech płaszczyznach; szkolenia, coaching, audyty i wdrożenia. O procesie wdrażania systemu ochrony danych osobowych i zagrożeniach wynikających z rozwoju sztucznej inteligencji, rozmawiamy z Moniką Zygmunt-Jakuć – Inspektor Ochrony Danych i Prezes Zarządu „bez owijania” Sp. z o.o. 

Pani Prezes, jak zbudować system ochrony danych osobowych? 

Rozpoczęcie prac powinno być poprzedzone dogłębnym badaniem i identyfikacją procesów funkcjonujących w organizacji. Najlepszym sposobem do dokonania tego jest przeprowadzanie audytu otwarcia. Audyt ten polega na; inwentaryzacji procesów, w których przetwarzane są dane osobowe oraz ocenie ich zgodności z RODO.

Kolejnym etapem powinno być przyjęcie metodologii oceny ryzyka związanego z przetwarzaniem danych osobowych, podczas którego powinny być brane pod uwagę charakter, zakres, kontekst i cele przetwarzania oraz ryzyko naruszenia praw lub wolności osób fizycznych.

Dalej należy dostosować istniejące czynności do zgodności z prawem ochrony danych osobowych oraz wprowadzić zmiany w zabezpieczeniach danych osobowych, nie zapominając również o zmianach w funkcjonalnościach systemów informatycznych.

Zwieńczeniem wdrożenia jest opracowanie i przyjęcie dokumentacji formalnej oraz szkolenia dla pracowników. Kluczowe jest także wyznaczenie osoby odpowiedzialnej za stałe utrzymywanie wdrożonego procesu.

 

Tematem, którym się również Państwo zajmujecie, jest sztuczna inteligencja. Jak Pani uważa, w jaki sposób sztuczna inteligencja może być wykorzystywana do nielegalnego pozyskiwania danych osobowych?

Sztuczna inteligencja może być wykorzystywana przez hakerów do przeprowadzania jeszcze bardziej wyrafinowanych cyberataków niż dotychczas. Oszuści mogą wykorzystywać ją do imitowania języka potocznego lub tworzenia nieprawdziwych fotografii czy filmów, aby nakłonić użytkowników do udostępniania im poufnych danych. Technika ta może być również wykorzystywana do cyberprzemocy.

Zagrożeniem może być również rozpoznawanie twarzy oparte na bazie AI. Zaawansowane techniki biometrii mogą dostarczyć stronom trzecim bardzo szczegółowych danych na temat wyglądu użytkownika. Mogą być również wykorzystywane do inwigilacji, śledzenia i innych naruszeń naszej prywatności.

Nie należy zapominać, że twórcy wirusów również mogą korzystać z AI. Oparte na AI wirusy mogą potencjalnie wyrządzić więcej szkód niż te zwykłe, ponieważ są w stanie wykryć oprogramowanie antywirusowe, zaatakować jego kod i obejść blokadę.

 

Czy dostrzega Pani zagrożenia związane z rozwojem AI?

Kwestia ta winna być analizowana na wielu płaszczyznach takich jak etyka, filozofia, nauki informatyczne, prawo. Istnieje wiele różnych opinii na ten temat i nie ma jednoznacznej odpowiedzi. W znacznej większości przypadków celem rozwijania AI jest stworzenie narzędzi, które pomogą ludziom w wykonywaniu zadań, rozwiązywaniu problemów i udoskonalaniu życia. Ważne jest, aby ludzie rozwijający tę dziedzinę i technologie z nią związane, przestrzegali surowych zasad etycznych i bezpieczeństwa.

 

rozmawiała Anna Piątek-Janko

bez owijania logo
/
Materiały prasowe