Agnieszka Niesłuchowska, „Wprost”: We wrześniu zadebiutuje ósma edycja Mapy Trendów, autorskiego narzędzia infuture.instytute, którego jest Pani założycielką. Uchyli pani rąbka tajemnicy, co znajdzie się w tegorocznym zestawieniu? Czy któryś z trendów szczególnie Panią zaniepokoił lub zafascynował?

Natalia Hatalska: Mapa Trendów ma na celu przedstawienie zjawisk, na które powinniśmy zwrócić uwagę zarówno teraz, jak i w dłuższej perspektywie. Z założenia nie określamy, który trend jest niepokojący, a który fascynujący, zależne jest to zawsze od punktu widzenia. Podam przykład. W tym roku wiele trendów dotyczy napięć geopolitycznych oraz różnych form wojen – nie tylko pełnoskalowych, ale także hybrydowych, energetycznych, międzypokoleniowych czy kognitywnych. Z perspektywy człowieka i społeczeństwa wojna jest największym złem i powinniśmy zrobić wszystko, żeby jej przeciwdziałać.

Ale z perspektywy agresorów, jak Rosja, wojna to walka o władzę, zasoby. Przemysł zbrojeniowy również dostrzega w wojnie szansę na rozwój.

Czy sztuczna inteligencja mogłaby pomóc w rozwiązywaniu światowych konfliktów? Prof. Andrzej Zybertowicz, gdy pytałam go to, czy AI mogłaby pomóc w zbudowaniu zgody narodowej, stwierdził, że sama z siebie nie, ale bo na końcu procesu decyzyjnego stoi człowiek, ale docelowo mogłyby coś sensownego podpowiedzieć.

Nie jestem przekonana, że AI mogłaby pomóc w rozwiązywaniu światowych konfliktów, raczej może być ich zarzewiem i to na wielu poziomach. Broń autonomiczna, która opiera się o AI, jest uznawana dziś za trzecią rewolucję w uzbrojeniu – za prochem i bronią jądrową. Autonomiczne systemy broni mogą podejmować decyzje bez udziału człowieka. Przykładem są drony, które wymagają operatora, ale coraz częściej wykorzystywane są systemy, które działają w trybie „fire and forget”.

Oznacza to, że broń jest odpalana przez człowieka, ale potem działa już sama. W przyszłości maszyny mogą samodzielnie decydować o życiu i śmierci.

Z jednej strony zastąpienie żołnierzy maszynami jest potrzebne, bo może zmniejszać liczbę ofiar, z drugiej – jest to niepokojące, bo obniża próg rozpoczęcia walki, zwiększa ryzyko błędów. Maszyny nie rozumieją wartości ludzkiego życia, nie ma ono dla nich żadnego znaczenia.

Jakie są konsekwencje ekspansji tego rodzaju technologii?

Systemy AI uczą się przez wzmocnienie. Inaczej mówiąc, człowiek daje maszynie zadanie do wykonania, ale nie odpowiada już w żaden sposób za strategię, jaką maszyna opracowała, żeby wykonać zadanie.

To znaczy?

Wyobraźmy sobie robota do sprzątania, którego celem jest sprzątanie pokoju. Ma zbierać śmieci z podłogi. Za każde podniesienie papierka, dostaje punkt – to właśnie wzmocnienie. Za każde wjechanie w ścianę traci punkt. Ponieważ robot nastawiony jest na maksymalizację punktów, może dojść do wniosku, że lepiej jest cały czas podnosić i wyrzucać jeden śmieć, zamiast jeździć po całym pomieszczeniu. Zacznie realizować inny cel niż ten, który mu wyznaczyliśmy.

Udział
Exit mobile version