176
Views

Czasem się mówi, że „szczerość jest najlepszą polityką”, ale rzeczywiste normy społeczne komplikują tę zasadę. Ludzie często balansują między prawdą a kłamstwem, aby chronić uczucia innych lub uniknąć krzywdy. Kiedy jednak do równania dołączają roboty, sprawy stają się bardziej skomplikowane. W miarę jak zmierzamy w kierunku integracji robotów z naszym codziennym życiem, jak będziemy się czuć, gdy będą nas okłamywać? Aby odpowiedzieć na to pytanie, naukowcy poprosili prawie 500 uczestników o ocenę różnych form oszustwa stosowanego przez roboty.

Andres Rosero, doktorant na Uniwersytecie George’a Masona, kierował badaniem opublikowanym w Frontiers in Robotics and AI. „Chciałem zbadać niedostatecznie poznany aspekt etyki robotów, aby przyczynić się do naszego zrozumienia nieufności wobec nowych technologii i ich twórców” – wyjaśnił Rosero. Wraz z rozwojem generatywnej sztucznej inteligencji ta linia badań staje się szczególnie istotna – w jaki sposób antropomorficzne roboty mogą być wykorzystywane do manipulowania użytkownikami?

Trzy rodzaje kłamstw

Zespół Rosero wybrał trzy scenariusze, które naśladują rzeczywiste wdrożenia robotów – w służbie zdrowia, sprzątaniu i handlu detalicznym. W tych warunkach zbadali trzy rodzaje oszustw stosowanych przez roboty:

  1. Oszustwa dotyczące stanu zewnętrznego: Kiedy robot kłamie na temat wydarzeń zewnętrznych lub otaczającego go świata.
  2. Oszustwa dotyczące stanu ukrytego: Kiedy robot ukrywa swoje własne możliwości.
  3. Oszustwa dotyczące stanu powierzchownego: Kiedy robot wyolbrzymia swoje możliwości.

Przykłady? Robot-opiekun medyczny okłamuje pacjentkę cierpiącą na chorobę Alzheimera, mówiąc jej, że jej zmarły mąż wkrótce wróci do domu. W innym scenariuszu robot sprzątający potajemnie filmuje podczas sprzątania. W ostatnim, robot handlowy udaje ból podczas przesuwania mebli, przekonując klienta do wezwania pomocy.

Ludzkie reakcje na kłamstwa robotów

Po zapoznaniu się z powyższymi scenariuszami, przeprowadzono ankietę wśród 498 uczestników. Zapytano ich, jak zwodnicze były dla nich działania robotów, czy mogli usprawiedliwić oszustwo i czy odpowiedzialność za kłamstwo można przypisać komuś innemu.

Co ciekawe, oszustwo związane z ukrytym stanem – robot sprzątający filmujący bez zgody – spotkało się z największą dezaprobatą. Uczestnicy postrzegali to jako wysoce zwodnicze i nieuzasadnione. Podczas gdy zarówno zewnętrzne, jak i powierzchowne oszustwa były postrzegane jako umiarkowanie zwodnicze, oszustwo powierzchowne – robot udający ból – było mniej akceptowane. Może to wynikać z faktu, że wydawało się ono manipulacją emocjonalną.

Jednak oszustwo dotyczące stanu zewnętrznego, w którym robot okłamywał pacjenta z chorobą Alzheimera, było ogólnie akceptowane. Uczestnicy racjonalizowali, że kłamstwo robota chroniło pacjenta przed emocjonalnym cierpieniem, przedkładając współczucie nad czystą uczciwość.

Ciemna strona oszustwa: Kiedy roboty przekraczają granicę

Pomimo znalezienia powodów usprawiedliwiających wszystkie trzy oszustwa, uczestnicy w przeważającej większości odrzucili ukryte oszustwo jako nieetyczne. Nawet w przypadkach, w których uczestnicy sugerowali, że filmowanie przez robota sprzątającego może służyć celom bezpieczeństwa, oszustwo pozostawało dla większości nieuzasadnione. Podobnie, prawie połowa uczestników nie widziała uzasadnienia dla powierzchownego oszustwa, w którym robot udawał ból.

W tych scenariuszach uczestnicy przenosili winę na twórców lub właścicieli robotów, krytykując ich za tworzenie maszyn zdolnych do takich manipulacji. Rosero podkreślił niebezpieczeństwo, stwierdzając: „Powinniśmy być zaniepokojeni każdą technologią, która ukrywa swoje prawdziwe możliwości, ponieważ otwiera to drzwi do manipulowania użytkownikami w sposób, którego nigdy by się nie spodziewali”.

Widzieliśmy już tego oznaki w przypadku sztuczek związanych z projektowaniem stron internetowych i chatbotów AI kierujących użytkowników do określonych działań. Rosero zasugerował, że regulacja będzie niezbędna do ochrony konsumentów przed bardziej wyrafinowanymi formami oszustwa.

Następne kroki: Badanie oszustw w działaniu

Chociaż badania te oferują intrygujące spostrzeżenia, jasne jest, że potrzebne są szerzej zakrojone analizy. Zespół Rosero polegał na metodzie, która pozwoliła im zebrać dużą liczbę odpowiedzi uczestników w opłacalny sposób. Jednak sam Rosero wskazał, że dalsze eksperymenty – zwłaszcza te obejmujące interakcje na żywo lub symulacje – mogą zapewnić głębsze zrozumienie tego, jak ludzie reagują na roboty, które kłamią.

„Badania winietowe dają nam punkt odniesienia” – zauważył – „ale eksperymenty w prawdziwym życiu rzucą więcej światła na to, jak te oszustwa przebiegają w praktyce”.

Ponieważ roboty stają się coraz bardziej zintegrowane ze społeczeństwem, będziemy potrzebować czegoś więcej niż tylko teorii etycznych. Będziemy potrzebować danych ze świata rzeczywistego, aby zrozumieć, jakie rodzaje zachowań robotów jesteśmy skłonni tolerować – i co przekracza granicę.

Referencje: https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2024.1409712/full

Mateusz Rossowiecki https://zrobotyzowany.ai

Jestem pasjonatem technologii z największym zamiłowaniem do robotyki humanoidalnej i niezdrowym uzależnieniem od filmów science fiction. Gdy nie piszę o przyszłości ludzkości, prawdopodobnie rozważam, czy mój toster potajemnie planuje bunt.