“Wdrażanie AI musi być świadome. Dziś wiele wdrożeń AI odbywa się na zasadzie owczego pędu. Firmy boją się pozostać w tyle, więc podejmują nie zawsze dobrze przemyślane decyzje o wdrożeniach, które mogą później skutkować sceptycyzmem wobec technologii AI jako takiej” — mówi Maciej Chojnowski, dyrektor programowy Centrum Etyki Technologii Instytutu Humanites.
Świat, i nieco z nadzieją, ale też i ze strachem spogląda w stronę AI. Czy sztuczna inteligencja jest tym, czego powinniśmy się obawiać ?
Maciej Chojnowski, dyrektor programowy Centrum Etyki Technologii Instytutu Humanites: O sztucznej inteligencji mówi się dziś dużo i głośno, a w tym zgiełku często trudno odróżnić fakty od półprawd czy ewidentnej manipulacji. Sprzeczne opinie bywają też wygłaszane przez ekspertów od AI. Tyle że specjalista w dziedzinie deep learningu niekoniecznie musi też być autorytetem w obszarze gospodarki, filozofii, etyki czy nauk o środowisku. Podobne zjawisko widać zresztą także w przypadku debat na temat kryzysu klimatycznego.
Dlatego w Centrum Etyki Technologii Instytutu Humanites (CET) staramy się zachowywać dystans zarówno wobec hurraoptymistycznych wizji przyszłości płynących z ust technoentuzjastów, jak i katastroficznych scenariuszy kreślonych przez technopesymistów. Najbliższy jest nam zdrowy rozsądek i umiarkowany sceptycyzm, który pomaga trzeźwo oceniać to, co się dzieje.
Mamy powody do obaw w związku z AI?
Powodów do obaw związanych z AI trochę mamy. Tyle że niekoniecznie są one zbieżne z popularnymi wyobrażeniami na ten temat. Popkultura najczęściej serwuje nam wizje buntu autonomicznych maszyn lub zdominowania ludzkości przez superinteligencję. Tymczasem realne zagrożenia są dużo mniej spektakularne. Aby je zrozumieć, trzeba jednak spojrzeć na AI w odpowiednim kontekście: nie jak na niezależne od człowieka narzędzie, ale element naszej społeczno-gospodarczo-politycznej rzeczywistości. Wtedy łatwiej dostrzec, że najpoważniejsze niebezpieczeństwa w tym obszarze dotyczą dominacji i władzy – przede wszystkim tej sprawowanej przez korporacje technologiczne, ale także przez państwa. Stawką w tej grze są m.in. demokracja, sprawiedliwość, bezpieczeństwo oraz dobrostan społeczny i środowiskowy.
Zapisz się na newsletter Kompasu ESG
AI już zmienia codzienne czynności. Czy może odegrać rolę w realizacji celów zrównoważonego rozwoju? Jaką ewentualnie?
Z pewnością – i to zarówno pozytywną, jak i negatywną. Można sobie bowiem wyobrazić, że AI zostaje zaprzęgnięta do bardzo pożytecznych projektów mających na celu np. oczyszczanie środowiska, wspieranie efektywnego zarządzania sieciami energetycznymi czy lepszą gospodarkę odpadami. Istnieją przykłady takich rozwiązań, jednak to nie one są dziś w centrum zainteresowania.
Obecnie największą uwagę rynku skupia generatywna AI. A w tym wypadku trudno mówić o pozytywnym oddziaływaniu na cele zrównoważonego rozwoju. Przede wszystkim chodzi o ogromną energochłonność infrastruktury obliczeniowej niezbędnej do działania tej technologii. Niedawno było głośno o pomyśle OpenAI, czyli firmy rozwijającej modele GPT i DALL-E, żeby zbudować w USA nowe centra danych, z których każde mogłoby potrzebować energii o mocy sięgającej 5GW! To mniej więcej tyle, ile wynosi maksymalna moc całej Elektrowni Bełchatów! Więc nawet jeśli takie zapotrzebowanie miałoby być realizowane z wykorzystaniem elektrowni jądrowych, to raczej trudno powiedzieć, że to zrównoważona technologia.
Spójrzmy też choćby na 10. cel SDGs, czyli zmniejszanie nierówności. W tym kontekście największe firmy z branży technologicznej są wymieniane wręcz jako antyprzykład. Dążą do monopolizacji rynków, wchłaniają mniejsze podmioty, dysponują wielkimi środkami na lobbing, a ich działalność z roku na rok staje się coraz trudniejsza do uregulowania.
Niemniej trudno jednoznacznie stwierdzić, czy oddziaływanie AI na cele zrównoważonego rozwoju okaże się w przeważającej mierze pozytywne, czy odwrotnie. Trzeba to raczej oceniać w kontekście poszczególnych celów ogólnych i szczegółowych zadań.
Czy ważne jest, by sama AI także spełniała kryteria zrównoważonego rozwoju? Dlaczego?
To kluczowe chociażby ze względu na wspomniane przed chwilą wielkie zużycie energii potrzebne do używania tej technologii. Dlatego dziś mówi się coraz częściej o sustainable AI, czyli sztucznej inteligencji rozwijanej z troską o środowisko oraz uwzględniającej inne aspekty SDGs. Nie chodzi więc tylko o to, by zaprząc AI do pożytecznych celów, ale również by ona sama generowała jak najmniej negatywnych efektów zewnętrznych.
“Kompas Voices” to cykl wywiadów z czołowymi ekspertami w dziedzinie ESG (Environmental, Social, Governance), w którym skupiamy się na najważniejszych wyzwaniach i trendach związanych ze zrównoważonym rozwojem w biznesie. Rozmówcy dzielą się swoimi unikalnymi, eksperckimi perspektywami na temat roli ESG w budowaniu odpowiedzialnych i innowacyjnych strategii biznesowych.
Czy AI powinna być powiązana z ESG? W jaki sposób?
Zdecydowanie tak. Dotykamy tu związku ESG z koncepcją trustworthy AI, czyli godnej zaufania sztucznej inteligencji. Jest to podejście zainicjowane w UE, ale przyjęte także przez OECD. Jednak to Unia poszła najdalej w jego urzeczywistnianiu – przede wszystkim poprzez przyjęcie rozporządzenia AI Act. Co jednak tutaj kluczowe, trustworthy AI to nie tylko prawo, ale również etyka i solidność techniczna. Nie można zapominać o tych dwóch komponentach.
Samo prawo łatwo sprowadzić do dość powierzchownych procedur zapewniania zgodności. Wtedy taki sformalizowany compliance weźmie górę nad postulowaną innowacyjnością trustworthy AI, czyli takimi rozwiązaniami, które byłyby korzystne nie tylko biznesowo, ale również społecznie i środowiskowo.
I tu docieramy do sedna problemu. Silosowe podejście do ESG i trustworthy AI może sprawić, że zabraknie synergii w realizacji wymogów z obu tych obszarów. Są one same w sobie wystarczająco skomplikowane, więc ryzyko, że firmy podejdą do nich bez spójnej strategii jest wysokie. Przed tym właśnie przestrzegamy w CET Humanites.
Rozwijany przez nas model AI governance postuluje uspójnianie polityk z obszaru ESG i trustworthy AI. I to zarówno na poziomie poszczególnych organizacji, jak i globalnie. O konieczności powiązania obu tych sfer muszą bowiem pamiętać zarówno decydenci krajowi czy międzynarodowi, jak i liderzy organizacji. W przeciwnym razie zarówno działania z obszaru ESG, jak i odpowiedzialnego rozwoju AI będą cząstkowe i mało skuteczne. A przecież wśród wymogów trustworthy AI jest także troska o dobrostan ludzi i środowiska!
Jak powinno wyglądać wdrażanie AI, by było zgodne z celami zrównoważonego rozwoju, by było etyczne?
Przede wszystkim musi być świadome. Dziś wiele wdrożeń AI odbywa się na zasadzie owczego pędu. Firmy boją się pozostać w tyle, więc podejmują nie zawsze dobrze przemyślane decyzje o wdrożeniach, które mogą później skutkować sceptycyzmem wobec technologii AI jako takiej.
Choć z drugiej strony w Polsce akurat trudno mówić o tym zjawisku w kontekście MŚP. Ale tu właśnie dostrzegałbym szansę na bardziej zrównoważone i odpowiedzialne podejście do wprowadzania nowych rozwiązań opartych na AI. Byłoby to zgodne z zamierzeniami twórców koncepcji trustworthy AI, którzy widzieli Europę w roli lidera odpowiedzialnych innowacji. Aby tak się stało, niezbędna byłaby jednak jasna wizja wśród rządzących, którzy musieliby chcieć rozwijać gospodarkę w takim kierunku. To niestety niełatwe zadanie i na razie nie bardzo widzę chętnych do jego podjęcia.
Myślimy zbyt krótkoterminowo, na co zresztą od lat zwraca uwagę prezes Instytutu Humanites Zofia Dzik. Brak spójności w zarządzaniu i krótkowzroczność to jedne z głównych problemów, które identyfikuje. I nie jest to diagnoza obserwatora czy teoretyka, ale rozpoznanie wynikające z jej wieloletniego doświadczenia biznesowego.
Jaka jest rola CET w propagowaniu podejścia do AI? Jakie działania podejmuje?
Podejmujemy różnorakie działania, aby promować bardziej odpowiedzialne i spójne podejście do rozwoju i wdrażania technologii w Polsce. Mamy na koncie konferencje popularyzujące trustworthy AI i łączenie tej dziedziny właśnie z ESG i SDGs. Organizujemy szkolenia i warsztaty. Jesteśmy aktywni w Grupie Roboczej ds. AI działającej przy Ministerstwie Cyfryzacji, a wcześniej przy KPRM. Opublikowaliśmy pierwszą w języku polskim popularnonaukową publikację na temat etyki AI. Bierzemy udział w projektach wspierających odpowiedzialną implementację tej technologii, jak np. „Standardy etycznego wykorzystania generatywnej sztucznej inteligencji w Urzędzie m.st. Warszawy” we współpracy z Urzędem Miasta, SWPS i firmą EGO. Wreszcie rozwijamy nasze podejście do zintegrowanego zarządzania AI, tak by wymogi etyki, prawa i cyberbezpieczeństwa były urzeczywistniane w sposób spójny z celami zrównoważonego rozwoju.
Staramy się być aktywni na różnych polach i w swojej ofercie mamy zarówno szkolenia, jak i współpracę projektową przy realizacji etyki AI w praktyce. Jesteśmy otwarci na współpracę zarówno z sektorem publicznym, jak i prywatnym.
“Kompas ESG Voices” to cykl wywiadów z czołowymi ekspertami w dziedzinie ESG (Environmental, Social, Governance), w którym skupiamy się na najważniejszych wyzwaniach i trendach związanych ze zrównoważonym rozwojem w biznesie. Rozmówcy dzielą się swoimi unikalnymi, eksperckimi perspektywami na temat roli ESG w budowaniu odpowiedzialnych i innowacyjnych strategii biznesowych.