Dnia 17 lutego 2024 roku w Polsce zaczął oficjalnie obowiązywać Akt o Usługach Cyfrowych (Digital Services Act), nazywany potocznie „Konstytucją Internetu”. Celem nowych regulacji wprowadzonych Rozporządzeniem Parlamentu Europejskiego oraz Rady Unii Europejskiej jest ochrona konsumentów oraz przedsiębiorców w Internecie pod względem prawdziwości zamieszczanej treści. W założeniu ma on chronić podstawowe prawa w przestrzeni cyfrowej.
Kogo dotyczy AUC?
AUC reguluje kwestie dostawców tzw. usług pośrednich, czyli m.in. dostawców platform internetowych oraz usług hostingu. Są to między innymi platformy udostępniania treści, serwisy społecznościowe, platformy e-commerce, marketplace’y czy internetowe platformy handlowe. Dotyczy on również podmiotów świadczących usługi chmurowe, serwerowe, pośrednictwa w transmisji danych, dostarczania cyfrowych treści oraz te, które pozwalają na wyszukiwanie informacji w sieci. Komisja Europejska kieruje nowe przepisy do bardzo dużych platform internetowych (VLOP) oraz bardzo dużych internetowych wyszukiwarek (VLOSE), które swoje usługi realizują na terenie Unii Europejskiej, bez względu na ich miejsce siedziby. Na swojej stronie internetowej, Komisja udostępniła pełną listę podmiotów zakwalifikowanych jako VLOSE oraz VLOP. Choć mogłoby się wydawać, że nowe unijne prawo dotyczy tylko dużych, mających ogromne zasięgi podmiotów, to w praktyce wcale nie musi tak być. Regulacje mogą dotyczyć również tych osób, których działalność przejawia się w prowadzeniu platform edukacyjnych, sklepów internetowych oraz stron internetowych, które umożliwiają pisanie komentarzy pod artykułami, udostępniają właściwe miejsce na treści zamieszczane przez użytkowników, czy też pozwalają na zamieszczanie opinii o produktach.
Jakie są cele nowych regulacji?
Jednym z najważniejszych celów, które zakłada Akt o Usługach Cyfrowych, jest zapobieganie sprzedaży nielegalnych towarów i usług. Ma on również w założeniu zapewnienie bezpieczeństwa osobom małoletnim pod względem proponowanych im treści. Nowe unijne regulacje mają także zapewnić ochronę informacji o użytkownikach. Akt zakłada pewne zakazy, które mają zwiększyć bezpieczeństwo użytkowników. Są to odpowiednio: zakaz targetowania reklam, używając przy tym danych osobowych wrażliwych, zakaz korzystania ze zwodniczych interfejsów (tzw. dark patterns) oraz zakaz publikacji nielegalnych treści oraz takich, które mogłyby wprowadzić danego użytkownika w błąd.
Jak regulacje Aktu będą wyglądały w praktyce?
Zapewnienie bezpieczeństwa osobom małoletnim
Akt określa, że zapewnienie bezpieczeństwa dzieciom w sieci ma następować poprzez zakaz personalizowanej, skierowanej bezpośrednio do nich, reklamy. W skrócie, na mocy Aktu zabronionym jest prezentowanie reklam, które są stworzone na podstawie profilowania osoby małoletniej.
Działanie algorytmów
Na mocy unijnego rozporządzenia, platformy internetowe będą zobligowane do wystosowania objaśnień w sprawie funkcjonowania wykorzystywanych przez nie algorytmów. W szczególności chodzi o te algorytmy, które odpowiadają za konkretny sposób doboru treści pod danego użytkownika. Jasne oraz przejrzyste mają być także parametry, jakie są wykorzystywane, jak i sam ich cel.
Zakaz korzystania ze zwodniczych interfejsów
Zwodniczy interfejs (ang. dark patterns) to pewien wzorzec, zaprojektowany w taki sposób, aby umożliwić manipulację użytkownikami, tym samym poniekąd zmuszać ich do decyzji, których pierwotnie nie zamierzali podejmować. Mogą przybierać postać ukrytych informacji, braku komunikatu o warunkach zakupu oraz jego kosztach lub też automatycznego dodawania produktów do koszyka. W celu wyjaśnienia oraz odróżniania działań będących przejawem stosowania zwodniczych interfejsów od tych, które nimi nie są, Europejska Rada Ochrony Danych udostępniła przewodnik, który ma pomóc użytkownikom oraz platformom unikać oraz rozpoznawać wspomniane interfejsy.
Reklama musi być transparentna
Wedle założeń aktu, prezentowana na danej platformie reklama musi zostać odpowiednio oznaczona. Powinien zostać wskazany podmiot, który finansuje daną reklamę, jeżeli jest on inny od tego, który pierwotnie ją zlecił. Co więcej, muszą zostać określone również te parametry, które zostały wykorzystane do definiowania odbiorcy danej reklamy, któremu została ona zaprezentowana.
Moderowanie treści
Wszystkie podmioty, których dotyczą regulacje AUC, maja obowiązek wprowadzenia jasnego regulaminu, w którym zostaną zawarte informacje na temat stosowania narzędzi, które moderują treść oraz kierujących nimi zasad. Z tym punktem wiąże się także kolejna regulacja mówiąca o usuwaniu lub moderowaniu zamieszczonych przez danego użytkownika treści nielegalnych bądź niezgodnych z regulaminem. Platforma po podjęciu wspominanych wyżej działań, będzie zobowiązana do przesłania użytkownikowi oświadczenia, które wyjaśni przyczynę moderacji opublikowanej przez niego treści.
Prawo użytkownika do odwołania się od decyzji
Użytkownicy na podstawie błędnej oceny algorytmu dotyczącej zamieszczonej przez nich treści (np. uznanie za nielegalną, a co za tym idzie usunięcie jej) będą mieli prawo do odwołania się od decyzji platformy.
Mechanizm zgłoszeń treści szkodliwej
Na mocy Aktu, platformy zobligowane będą do utworzenia mechanizmów, które będą umożliwiały użytkownikom prosty proces zgłoszenia treści, która w ich ocenie stanowi przejaw treści szkodliwej bądź nielegalnej. Platformy będą musiały również podjąć się zatrudnienia moderatorów, którzy docelowo będą odpowiadać za wspomniane wyżej zgłoszenia, jak i samą moderację treści.
Akt o Usługach Cyfrowych niewątpliwie przyczyni się do zwiększenia bezpieczeństwa w Internecie poprzez zwiększenie praw dla użytkowników oraz narzucenie większej ilości obowiązków dla dostawców usług. Platformy internetowe będą zobligowane m.in. do wdrożenia systemu rozpatrywania skarg oraz odwoływania się od decyzji, wprowadzenia przejrzystości reklam, jak i do niestosowania zwodniczych interfejsów. Warto pamiętać, że Aktem objęte są nie tylko bardzo duże podmioty internetowe, lecz również te mniejsze.
W razie dodatkowych pytań: serdecznie zachęcamy do kontaktu.