Nowe przepisy AI Act 2025- co powinniśmy wiedzieć?
Sztuczna inteligencja na dobre zadomowiła się w działalności przedsiębiorców. Korzystamy z narzędzi takich jak ChatGPT, AI w Canvie, SEO marketingu i wielu innych obszarach, gdzie okazuje się niezwykle pomocna. Niestety, niektórzy przedsiębiorcy wykorzystują AI również w sposób nieetyczny. Teraz jednak takie praktyki dobiegają końca.
Od 2 lutego 2025 roku w Unii Europejskiej zaczęły obowiązywać nowe przepisy AI Act 2025 (Rozporządzenie o Sztucznej Inteligencji). Regulacje te mają istotne znaczenie dla firm, w tym dla sektora nieruchomości – zarówno w kontekście działań marketingowych, jak i zatrudniania pracowników. Nowe przepisy zakazują określonych praktyk związanych z AI, w tym tych wykorzystywanych do zwiększania sprzedaży i profilowania kandydatów. Ponadto nakładają na pracodawców obowiązek podnoszenia kompetencji personelu w zakresie sztucznej inteligencji.
Zakazane praktyki związane z AI
AI Act 2025 wprowadza zakaz stosowania systemów AI, które mogą być uznane za szczególnie niebezpieczne, naruszające prawa obywateli. Oto najważniejsze z nich:
Manipulacja zachowaniem
Nowe przepisy AI Act 2025 zabraniają wykorzystywanie technik podprogowych i innych form manipulacji, które mogą prowadzić do zmiany zachowania osoby w sposób nieświadomy i potencjalnie szkodliwy.
Dziś bez wiedzy rodem z książek Cialdiniego żaden sprzedawca nie utrzyma się na rynku. Kupujący mniej lub bardziej świadomie poddają się różnym trikom handlowym.
Niestety są i takie systemy, które są absolutnie nieetyczne. Przykładem są systemy wykorzystywane w dużych centrach handlowych, które emitują podprogowe komunikaty w postaci subtelnych dźwięków i obrazów, sugerując konsumentom takie polecenia jak „kup”, „potrzebujesz” czy „teraz”. Od lutego 2025 roku takie praktyki są nielegalne i podlegają sankcjom.
Rozpoznawanie emocji w miejscu pracy
Zakazane jest stosowanie systemów AI analizujących emocje pracowników (z wyjątkiem przypadków uzasadnionych medycznie lub związanych z bezpieczeństwem).
Niektóre wykorzystują AI do analizy mimiki twarzy, tonacji głosu czy korespondencji pracowników, aby ocenić ich stan emocjonalny, poziom stresu czy motywację. Dane pozyskane w ten sposób są później wykorzystywane do oceny efektywności pracy, przyznawania premii i awansów.
Tego typu praktyki są od teraz nie tylko nieetyczne, ale także nielegalne i karalne.
Wykorzystywanie słabości kandydatów
Nowe przepisy AI Act 2025 zakazują również stosowania systemów AI, które wykorzystują słabości wynikające z wieku, płci, niepełnosprawności lub sytuacji społeczno-ekonomicznej, prowadząc do niesprawiedliwego traktowania kandydatów.
PRZYKŁAD
Załóżmy, że firma zajmująca się pośrednictwem nieruchomości stosuje system AI do analizy kandydatów na stanowisko agenta nieruchomości. System analizuje profile kandydatów, wykorzystując udostępniane przez nich dane z ich aktywności zawodowej i społecznej. Często ma się to nijak do tego, jacy są w rzeczywistości. Może się okazać, że osoby starsze lub pochodzące z mniej zamożnych regionów są automatycznie oceniane jako „mniej dynamiczne” lub „mniej skłonne do adaptacji w środowisku sprzedażowym”. Algorytm może preferować młodszych kandydatów z wyższymi dochodami i uznać ich za bardziej efektywnych w pracy, nawet jeśli w rzeczywistości starsi lub mniej zamożni kandydaci posiadają lepsze umiejętności interpersonalne i doświadczenie.
Dostępne są również badania ujawniające, jak systemy AI dyskryminują kobiety w ich aktywności zawodowej. Bo, jak pisze Kate Crowford w książce Atlas sztucznej inteligencji. Władza pieniądze i środowisko naturalne, „Sztuczna inteligencja nie jest ani sztuczna, ani inteligentna”. Opiera się na udostępnianych przez człowieka bazach danych i tworzonych przez siebie algorytmach, które nie wiadomo dlaczego wyraźnie dyskryminują niektóre grupy społeczne. Nowe przepisy AI Act zakazują tego typu praktyk, ponieważ mogą prowadzić do niesprawiedliwego traktowania kandydatów. Firma stosująca taki algorytm rekrutacyjny mogłaby obecnie narazić się na wysokie kary finansowe oraz konieczność zmiany procesu rekrutacyjnego.
Scoring społeczny – zakazana klasyfikacja kandydatów
Scoring społeczny to ocena lub klasyfikacja osób na podstawie ich zachowań społecznych, cech osobistych czy stylu życia, prowadząca do ich nieproporcjonalnego i nieuzasadnionego traktowania.
PRZYKŁAD
Firma zarządzająca nieruchomościami stosuje system AI do oceny kandydatów na stanowisko administratora nieruchomości. Algorytm analizuje ich aktywność w mediach społecznościowych, historię zakupów i interakcje online, a następnie przyznaje im ocenę punktową określającą „przydatność” do pracy.
Jak działa system?
- Kandydaci o wysokiej liczbie kontaktów na LinkedIn i aktywności w grupach branżowych otrzymują wyższe oceny.
- Osoby z prywatnymi profilami lub bez dużej obecności w mediach społecznościowych dostają niższe noty.
- Kandydaci mieszkający w mniej prestiżowych lokalizacjach lub dokonujący tańszych zakupów są klasyfikowani jako „mniej ambitni” i automatycznie odrzucani.
Dlaczego to nielegalne?
Scoring społeczny nie opiera się na rzeczywistych kompetencjach kandydata i może prowadzić do systemowej dyskryminacji. AI Act zakazuje tego typu praktyk, a firmy stosujące takie systemy mogą zostać ukarane grzywną sięgającą 7% rocznego obrotu oraz zmuszone do zaprzestania korzystania z AI w tym zakresie.
Nowe przpisy ai act a Obowiązek podnoszenia kompetencji – AI Literacy
Artykuł 4 AI Act nakłada na pracodawców obowiązek zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród personelu. Oznacza to, że firmy działające w branży nieruchomości muszą zapewnić swoim pracownikom szkolenia i edukację w tym zakresie. Nie tylko w celu efektywnego i bezpiecznego korzystania z systemów AI ale również świadomości ryzyk związanych z AI, potencjalnych zagrożeń oraz sposobów ich minimalizacji.
Jak dokładnie mają wyglądać te szkolenia? Rynek zapewne odpowie w najbliższych miesiącach, gdyż już pojawia się zapotrzebowanie na tego rodzaju szkolenia.
Sankcje za naruszenie AI Act
Nieprzestrzeganie przepisów AI Act może skutkować poważnymi konsekwencjami finansowymi. Firmy naruszające regulacje mogą zostać ukarane grzywną w wysokości do 35 milionów euro lub 7% rocznego obrotu.
Co to oznacza dla firm?
🔹 Konieczność dostosowania procedur rekrutacyjnych i marketingowych do nowych regulacji.
🔹 Ryzyko wizerunkowe – niezgodne z prawem praktyki mogą zaszkodzić wizerunkowi przedsiębiorstwa.
🔹 Obowiązek audytowania systemów AI – firmy muszą monitorować swoje narzędzia pod kątem zgodności z przepisami.
Podsumowanie
AI Act 2025 to kluczowy krok w stronę etycznego i odpowiedzialnego wykorzystania AI w biznesie. Dla firm z branży nieruchomości oznacza to konieczność przemyślanej rekrutacji, zgodności z regulacjami i przejrzystych praktyk rynkowych.
Więcej informacji:
🔗 AI Act – oficjalne źródło
🔗 Ministerstwo Cyfryzacji – AI Act
🔗 Ministerstwo Cyfryzacji – Wytyczne
Interesuje Cię tematyka wspólnot mieszkaniowych?
🟡 Zajrzyj do bazy wiedzy
🟡 Kup poradnik „Vademecum wiedzy o wspólnotach mieszkaniowych”
Udostępnij: