Etyka w korzystaniu ze sztucznej inteligencji staje się fundamentalna dla zdobycia zaufania ludzi. Takie wnioski płyną z nowego badania przeprowadzonego przez Instytut Badawczy Capgemini.

W miarę rozwoju dana organizacja może chcieć wykorzystać zalety sztucznej inteligencji. Konsumenci, pracownicy i obywatele przyglądają się jednak uważnie poczynaniom firmy i są gotowi nagradzać lub karać jej zachowania.

Etyka kluczem do sukcesu

Badani stwierdzili, że byliby bardziej lojalni, kupowali więcej lub byliby orędownikami danej organizacji, która wykorzystuje sztuczną inteligencję w sposób etyczny.

Wśród ankietowanych konsumentów 62 proc. stwierdziło, że darzy większym zaufaniem firmy, których interakcje AI postrzegane są jako etyczne. 61 proc. badanych powiedziało, że podzieli się swoimi pozytywnymi odczuciami z przyjaciółmi i rodziną. 59 proc. uznało, że będzie miało większe zaufanie wobec tego typu firmy. 55 proc. stwierdziło, że kupiłoby więcej produktów tejże firmy i zapewniło jej wysokie oceny oraz pozytywne opinie w mediach społecznościowych.

Gdy wykorzystywanie AI powoduje problemy etyczne, zagraża to zarówno reputacji, jak i wynikom finansowym danej organizacji. 41 proc. ankietowanych stwierdziło, że byłoby niezadowolonych, gdyby interakcja ze sztuczną inteligencją spowodowała problemy etyczne. 36 proc. zażądałoby wyjaśnienia sytuacji, a 34 proc. przestałoby wchodzić w interakcje z firmą.

Czy korzystać z AI?

Kierownictwo 9 na 10 organizacji uważa, że problemy w kwestiach etycznych w ich firmie wynikają z zastosowania systemów sztucznej inteligencji. Przykładem może być zbieranie w placówkach opieki zdrowotnej danych osobowych pacjentów bez ich zgody. Kolejną rzeczą jest nadmierne poleganie na decyzjach podejmowanych maszynowo. Kierownictwo powołało się m.in. na presję pilnego wdrożenia sztucznej inteligencji, tłumacząc nieuwzględnienie etyki przy konstruowaniu systemów sztucznej inteligencji.

Prawie połowa respondentów (47 proc.) uważa, że w ciągu ostatnich 2-3 lat doświadczyła co najmniej dwóch rodzajów zastosowań sztucznej inteligencji, co spowodowało problemy etyczne.

Większość (75 proc.) stwierdziło, że wymaga większej przejrzystości, gdy dana usługa jest obsługiwana przez sztuczną inteligencję. Chce również wiedzieć, czy są sprawiedliwie traktowani przez sztuczną inteligencję (73 proc.). Ponad trzy czwarte (76 proc.) konsumentów uważa, że powinny istnieć dalsze regulacje dotyczące sposobu, w jaki firmy korzystają ze sztucznej inteligencji.

Ponadto 51 proc. kadry kierowniczej sądzi, że ważne jest, aby systemy sztucznej inteligencji były etyczne i przejrzyste. Badanie wykazało, że 41 proc. kierownictwa wyższego szczebla zgłosiło, że całkowicie porzuciło wykorzystanie systemu sztucznej inteligencji. Zrobili to, gdy poruszono kwestie etyczne dotyczące tej sprawy.

„Wiele organizacji znajduje się na rozdrożu w sprawie korzystania ze sztucznej inteligencji. Konsumenci, pracownicy i obywatele są coraz bardziej otwarci na interakcję z technologią. Pamiętają jednak o potencjalnych konsekwencjach etycznych” – powiedziała Anne-Laure Thieullent, AI and Analytics Group Offer Leader w Capgemini.

„Badania te pokazują, że organizacje muszą tworzyć systemy etyczne i praktyki w zakresie korzystania ze sztucznej inteligencji, jeśli mają zdobyć zaufanie ludzi. Może to przynieść znaczące korzyści w zakresie lojalności, poparcia i zaangażowania. Aby to osiągnąć, organizacje muszą skupić się na ustanowieniu odpowiednich struktur zarządzania. Muszą nie tylko zdefiniować kodeks postępowania oparty na własnych wartościach, ale także go wdrożyć. Muszą również skupić się na informowaniu ludzi w zakresie interakcji z rozwiązaniami AI” – stwierdziła Anne-Laure Thieullent.

Źródło: roboticsandautomationnews.com