A A+ A++

Liczba wyświetleń: 59

Rzeczywiście, sztuczna inteligencja przynosi problemy, o jakich filozofom się nie śniło. 14-latek z USA popełnił samobójstwo po tym, jak zakochał się nieszczęśliwie w… wirtualnej postaci. Obiektem jego westchnień stał się chatbot o imieniu Dany. Ten romans zakończył się jednak tragedią.

Matka nastolatka złożyła pod koniec października skargę na firmę odpowiedzialną za stworzenie i prowadzenia sztucznej inteligencji. Chodzi o firmę Character.AI. Doprowadzenie do samobójstwa z powodu „romantycznej” rozpaczy i iluzji to sprawa precedensowa.

Po samobójstwie syna, zakochanego i uwikłanego w wirtualny romans ze swoją ulubioną bohaterką serialu „Daenerys” („Gra o tron”), jego matka, Megan Garcia, postanowiła złożyć skargę na firmę Character.AI. Według „New York Times” ten wirtualny związek trwał miesiącami, a chłopak z Florydy zakochał się do szaleństwa w Dany. Nastolatek jednak wiedział, że rozmawia z chatbotem.

Wirtualne romansowanie całkowicie odmieniło jego życie. Zmieniło się jego zachowanie w szkole i domu. Najbliżsi już go nie poznawali. Zaczął mieć kłopoty w szkole, w domu zamykał się w pokoju, by czatować z Dany – mówiła jego matka.

14-latek był tak zakochany, że popadł w głębokie cierpienie, ponieważ zdawał sobie sprawę, że nie można przenieść tego związku do rzeczywistości. U nastolatka zdiagnozowano zespół Aspergera. W końcu pojawiły się u niego myśli samobójcze, zrealizowane 28 lutego…

Dopiero później rodzina znalazła wiadomości, które wysyłał do chatbota. Natrafiła też na jego pamiętnik, w którym obszernie opisywał swoje załamanie. Po skardze złożonej przez rodzinę, firma Character.AI zareagowała w komunikacie prasowym opublikowanym 23 października br. Wyraziła swój żal i obiecała wprowadzić dodatkowe środki bezpieczeństwa, w tym zakaz korzystania z aplikacji osobom poniżej 18 roku życia.

Rodzina nie zamierza jednak rezygnować i chce spotkania z firmą w sądzie. „Mam wrażenie, że to był wirtualny eksperyment, a moje dziecko stało się jego uboczną ofiarą” – powiedziała matka chłopca w wywiadzie dla NBC News.

Na podstawie: NYTimes.com
Źródło: NCzas.info

Komentarz admina „Wolnych Mediów”

A gdyby popełnił samobójstwo człowiek dorosły, to Character.AI zakazałaby korzystania z czatbota przez dorosłych?

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć “Wolne Media” finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji “Wolnych Mediów”. Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułOFF Radio Kraków “zwalnia” prezenterów AI. Koniec eksperymentu
Następny artykułSocjaldemokratyczny wiatr zmian na Litwie