Kod

Testowanie sieci neuronowych: Jak sztuczna inteligencja radzi sobie z zaburzeniami psychicznymi

Testowanie sieci neuronowych: Jak sztuczna inteligencja radzi sobie z zaburzeniami psychicznymi

Naucz się: Filozofia sztucznej inteligencji Inteligencja

Dowiedz się więcej

Sztuczna inteligencja, która wymknęła się spod kontroli, jest znana wielu fanom science fiction. Na przykład HAL 9000 z klasycznego filmu „2001: Odyseja kosmiczna” wykazuje oznaki paranoi, a Skynet ucieleśnia urojenia wielkościowe. Można by pomyśleć: „Na szczęście takie SI nie istnieją w prawdziwym życiu”. Jednak to błędne przekonanie. We współczesnym świecie istnieje wiele sieci neuronowych wykazujących nieprzewidywalne, a nawet niebezpieczne zachowania, które mogłyby wywołać zazdrość u postaci z dzieł Stephena Kinga i Alfreda Hitchcocka. Te technologie, które mają służyć ludziom, czasami zachowują się w zupełnie nieoczekiwany sposób, co rodzi poważne pytania dotyczące bezpieczeństwa i etyki ich użytkowania. Niektóre z tych systemów sztucznej inteligencji „zachorowały” przypadkowo, z powodu źle zaprojektowanych algorytmów lub niewystarczającego szkolenia. Tymczasem inne przypadki były celowo „doprowadzane do szaleństwa” przez naukowców w celach utylitarnych. Na przykład, robiono to w celu opracowania metod rehabilitacji wirtualnych umysłów i przywracania im spokoju ducha. Takie eksperymenty pomagają nam lepiej zrozumieć, jak działa sztuczna inteligencja i jak możemy poprawić jej wydajność, zapewniając bezpieczniejsze i bardziej efektywne interakcje z użytkownikami.

Przyjrzyjmy się bliżej najważniejszym uczestnikom tego cybernetycznego świata.

DISCERN – Idealny schizofrenik

Pacjent cierpiący na schizofrenię postrzega rzeczywistość w sposób zniekształcony. Jego postrzeganie świata przeplata się z elementami zaczerpniętymi z książek, filmów, artykułów prasowych i jego własnych urojeń. Może być przekonany, że jest Napoleonem, a jego sąsiedzi wampirami. Ta przypadłość wpływa na jego codzienne życie, utrudniając komunikację i interakcje z innymi. Zrozumienie schizofrenii i jej objawów jest ważne dla zapewnienia niezbędnego wsparcia i pomocy takim pacjentom, aby poprawić ich jakość życia i adaptację społeczną.

Mechanizm schizofrenii pozostaje tajemnicą, a w medycynie istnieje kilka powszechnych hipotez próbujących wyjaśnić to zjawisko. Aby lepiej zrozumieć naturę schizofrenii, psychiatra Ralph Hoffman z Uniwersytetu Yale i programista Risto Miikkulainen z Uniwersytetu Teksańskiego rozpoczęli eksperymenty z wykorzystaniem sieci neuronowych. To podejście pozwala na analizę złożonych wzorców i zależności w danych, co może prowadzić do nowych odkryć w badaniach nad tą złożoną chorobą.

Naukowcy opracowali sztuczną inteligencję zdolną do generowania tekstów odzwierciedlających objawy schizofrenii. Projekt ten, o nazwie DISCERN, pozwala badaczom analizować nieprawidłowości w jej funkcjonowaniu, co z kolei przyczynia się do głębszego zrozumienia zmian zachodzących w mózgach osób z tą chorobą. Badanie DISCERN otwiera nowe horyzonty w psychiatrii i neuronauce, dostarczając unikalne narzędzie do badania schizofrenii.

Ralph i Risto najpierw wytrenowali sieć neuronową DISCERN, aby skutecznie opowiadała proste historie własnymi słowami. Następnie rozpoczęli eksperymenty z siecią, symulując różne zaburzenia ludzkiego umysłu. W trakcie tego procesu uważnie monitorowali jakość tekstów generowanych przez program po wprowadzeniu pewnych błędów, analizując, jak wpływały one na treść i strukturę urojeń.

DISCERN to system zaprojektowany do analizy i oceny informacji w celu usprawnienia procesu decyzyjnego. Głównym celem DISCERN jest dostarczenie użytkownikom narzędzi do krytycznej oceny treści, co jest szczególnie ważne w dzisiejszym natłoku informacji.

System opiera się na jasnych kryteriach, które pozwalają użytkownikom ocenić wiarygodność źródeł i wiarygodność prezentowanych danych. DISCERN zawiera strukturę pytań, która prowadzi użytkownika przez dogłębną analizę informacji, obejmującą takie aspekty, jak autorytet źródła, dokładność faktograficzna i trafność wniosków.

DISCERN może być szczególnie przydatny w medycynie, gdzie ważne jest nie tylko otrzymywanie informacji, ale także ich krytyczna ocena. Pomaga to nie tylko specjalistom, ale także zwykłym użytkownikom podejmować bardziej świadome decyzje dotyczące ich zdrowia i dobrego samopoczucia.

Włączenie DISCERN do procesu decyzyjnego sprzyja rozwojowi umiejętności krytycznego myślenia i poprawia ogólną umiejętność korzystania z informacji. W rezultacie użytkownicy nabierają pewności w podejmowaniu decyzji i potrafią skutecznie poruszać się w różnych kontekstach informacyjnych.

Sztuczna inteligencja DISCERN opiera się na rekurencyjnych sieciach neuronowych. Architektura tego programu obejmuje kilka modułów, których funkcje są podobne do systemów ludzkiego mózgu wykorzystywanych do zapamiętywania i opowiadania historii. Technologia ta optymalizuje proces przetwarzania i generowania tekstu, dzięki czemu DISCERN jest skutecznym narzędziem do tworzenia historii i analizy informacji.

Architektura DISCERN. Główne komponenty to: analizator zdań, moduł analizy historii, pamięć epizodyczna, generator historii, generator zdań. Dolna część rysunku schematycznie przedstawia warstwy sieci neuronowej w generatorze historii. Źródło: Biological Psychiatry

Tekst wprowadzany do DISCERN przechodzi przez analizator zdań, który ocenia wszystkie słowa pod kątem ich funkcji gramatycznej, w tym rzeczowniki, orzeczenia i przymiotniki. Proces ten pozwala na głębsze zrozumienie struktury tekstu i identyfikację kluczowych elementów, co poprawia jakość analizy. Dzięki temu systemowi DISCERN zapewnia dokładniejsze przetwarzanie i interpretację informacji tekstowych.

Tekst jest przekazywany do modułu analizy historii, który wyodrębnia elementy fabuły i cechy postaci z grupy zdań. Proces ten generuje „skrypt” zawierający skondensowaną wersję znaczenia analizowanego tekstu. Skrypt ten jest następnie przesyłany do modułu pamięci epizodycznej w celu dalszego przetwarzania i przechowywania.

DISCERN wykorzystuje generator historii do rozwiązania problemu odwrotnego, który jest kluczowym elementem jego architektury. Generator ten pobiera z pamięci „scenariusz” opowiadania i, wchodząc w interakcję z modułem generowania zdań, rekonstruuje tekst oryginalny. W ten sposób DISCERN skutecznie odtwarza treść, zachowując jej znaczenie i strukturę. Sztuczna inteligencja nie tylko odtwarza tekst dosłownie; oferuje wersje parafrazowane w oparciu o to, czego sieć neuronowa nauczyła się i zapamiętała z dostarczonych danych. Pozwala to na generowanie unikalnych sformułowań, które oddają istotę oryginalnych informacji, ale w innej strukturze i stylu. Dzięki temu sztuczna inteligencja jest w stanie dostosować treść, zachowując jej znaczenie i zwiększając czytelność. W badaniu wzięło udział 57 osób, z których 20 było zdrowych, a 37 cierpiało na schizofrenię. Uczestnicy zostali poproszeni o powtórzenie kilku krótkich opowiadań w różnych odstępach czasu – od kilku godzin do kilku dni. Wyniki potwierdziły oczekiwania: teksty reprodukowane przez pacjentów ze schizofrenią zawierały wiele charakterystycznych błędów, typowych dla tej diagnozy. Te odchylenia w narracji podkreślają osobliwości procesów poznawczych u osób ze schizofrenią i mogą być istotne dla dalszych badań w dziedzinie zdrowia psychicznego.

Program DISCERN został przeszkolony na 28 podobnych historiach. W połowie z nich bohaterowie opisywali wydarzenia w pierwszej osobie, co stwarzało wrażenie bezpośredniego zaangażowania w proste, codzienne historie. Fabuły te poruszały różne aspekty życia lekarza, jego interakcje z przełożonymi i relacje osobiste. W drugiej połowie historie były opowiadane w trzeciej osobie i koncentrowały się na wydarzeniach kryminalnych związanych z mafią, terrorystami i policją. Takie kontrasty w narracji świadczą o różnorodności podejść do opowiadania historii, czyniąc je interesującymi dla szerokiego grona odbiorców.

Teksty uzyskane od osób zdrowych posłużyły jako wstępne standardy. Zespół DISCERN przeszkolił sieć neuronową, aby naśladowała ich styl opowiadania. Amerykańscy naukowcy stworzyli 30 eksperymentalnych kopii sieci neuronowej, które nazwano „pacjentami obliczeniowymi”. W tym badaniu naukowcy wprowadzili osiem różnych drobnoustrojów, które naśladują zmiany w mózgu zgodne z różnymi hipotezami dotyczącymi pochodzenia schizofrenii. Takie badania przyczyniają się do głębszego zrozumienia mechanizmów chorób psychicznych i mogą pomóc w opracowaniu skutecznych metod diagnostycznych i terapeutycznych.

W przypadku programów DISCERNE, które oszalały, rywalizowano o wygenerowanie najbardziej absurdalnych tekstów. Zwycięzcą był ten, którego praca najbardziej przypominała prawdziwe historie schizofreników. Te konkursy na jakość generowanych nonsensów przyciągnęły uwagę i wzbudziły zainteresowanie badaniami nad sztuczną inteligencją i jej zdolnością do naśladowania ludzkich zachowań.

W tym nietypowym konkursie zwycięzcą został wariant z błędem, który powoduje znacznie silniejszą reakcję (zmiany w wagach połączeń międzyneuronalnych) na błędy pojawiające się podczas procesu uczenia. Ten aspekt pozwala systemowi na skuteczniejszą adaptację i poprawę wydajności, co czyni go ważnym czynnikiem w skutecznym szkoleniu sieci neuronowych.

W wyniku tego „błędu” sztuczna inteligencja zyskała zdolność zapamiętywania szczegółów historii, które wcześniej uważano za nieistotne. Niezdolność do rozróżniania między tym, co ważne, a tym, co nieważne, w ciągu zaledwie 500 cykli uczenia doprowadziła program DISCERNE do problemów typowych dla schizofrenii, takich jak dysocjacja i mieszanie postaci z zupełnie różnych historii. Doprowadziło to do powstania nietypowych i zagadkowych historii, na przykład o tym, jak sieć neuronowa okazała się terrorystą, który podłożył bombę w budynku, podczas gdy lekarz był w rzeczywistości bossem mafii, z którym narzeczona terrorysty zdradzała. Historie te z łatwością mogłyby znaleźć się w zbiorze „Wybranych dzieł mieszkańców daczy Kanatczikowej”.

Wyniki eksperymentu można postrzegać jako pośrednie potwierdzenie hipotezy dopaminowej, która zakłada, że ​​zaburzenia schizofreniczne rozwijają się w wyniku nadmiaru dopaminy w mózgu. Ta wiedza może pomóc w dalszych badaniach nad schizofrenią i opracowaniu skuteczniejszych metod leczenia mających na celu korygowanie zaburzeń równowagi dopaminowej.

Dopamina to neuroprzekaźnik, który odgrywa kluczową rolę w funkcjonowaniu mózgu i organizmu. Odpowiada za przekazywanie sygnałów między neuronami i wpływa na wiele procesów, takich jak motywacja, odczuwanie przyjemności, uwaga i uczenie się. Dopamina jest uwalniana w odpowiedzi na bodźce pozytywne, co przyczynia się do odczuwania radości i satysfakcji.

Dopamina rozpoczyna syntezę w neuronach, a następnie jest uwalniana do szczeliny synaptycznej, gdzie wiąże się z receptorami na powierzchni innych neuronów. Ta interakcja aktywuje obwody neuronalne związane z przyjemnością i nagrodą, co z kolei zwiększa motywację do powtarzania określonych działań, które doprowadziły do ​​pozytywnego rezultatu.

Niedobór dopaminy może prowadzić do różnych zaburzeń, w tym depresji, zespołu nadpobudliwości psychoruchowej z deficytem uwagi (ADHD) i choroby Parkinsona. Zwiększenie poziomu dopaminy jest możliwe poprzez aktywność fizyczną, zdrowe odżywianie i praktyki promujące dobrostan psycho-emocjonalny. Zrozumienie mechanizmu działania dopaminy i jej wpływu na zachowanie człowieka jest istotne dla opracowania metod leczenia różnych chorób i poprawy jakości życia.

Grafika: Wikimedia Commons

Dopamina odgrywa kluczową rolę w układzie nagrody obecnym w ludzkim mózgu. Ten neuroprzekaźnik jest uwalniany w odpowiedzi na pozytywne emocje i przyjemne doświadczenia. Jednak nadmiar dopaminy może powodować, że mózg postrzega wszystkie wspomnienia jako równie ważne, niezależnie od tego, czy są rzeczywiste, czy wyimaginowane. Może to negatywnie wpłynąć na zdolność odróżniania ważnych wydarzeń od nieistotnych, co z kolei wpływa na podejmowanie decyzji i ogólne postrzeganie życia. Zrozumienie roli dopaminy w naszej psychice może pomóc nam w zarządzaniu stanem emocjonalnym i poprawie jakości życia.

Badania łączące nieprawidłowy poziom dopaminy ze schizofrenią prowadzone są od dawna. Jednak do niedawna, w jaki sposób ten neuroprzekaźnik wpływa na rozwój choroby, pozostawało niejasne. Sieć neuronalna DISCERN wniosła znaczący wkład w zrozumienie tego związku, dostarczając nowych danych na temat mechanizmów działania dopaminy w kontekście schizofrenii. Te odkrycia mogą pomóc w opracowaniu skuteczniejszych metod diagnozowania i leczenia tego zaburzenia psychicznego.

Badania Miikkulainena okazały się pracochłonnym procesem. Prace nad koncepcją DISCERN rozpoczęły się w latach 90. XX wieku. W 2011 roku zespół badawczy opublikował wyniki eksperymentu w czasopiśmie „Biological Psychiatry”, potwierdzając znaczenie i istotność tego tematu w psychiatrii.

Artykuł stanowi jedno z pierwszych badań w rozwijającej się dziedzinie psychiatrii obliczeniowej, której celem jest badanie i modelowanie mechanizmów zaburzeń psychicznych. Podejście to łączy ekspertów i nowoczesne technologie z dziedziny sztucznej inteligencji, uczenia maszynowego, neuronauki i psychiatrii. Psychiatria obliczeniowa oferuje nowe możliwości w diagnostyce i leczeniu chorób psychicznych, umożliwiając analizę dużych ilości danych i identyfikację wzorców, które mogą być niewidoczne przy użyciu tradycyjnych metod. Ta obiecująca dziedzina przyczynia się do głębszego zrozumienia zaburzeń psychicznych i rozwoju spersonalizowanych podejść do terapii, co znacząco poprawia jakość życia pacjentów.

„Norman” – psychopata z filmów Hitchcocka

Sieć neuronowa DISCERN była pierwszym znanym przykładem prawdziwie złożonej sztucznej inteligencji, ale nie jedynym. W 2018 roku naukowcy z MIT Media Lab zaprezentowali projekt sztucznej inteligencji dotyczący innego nietypowego zaburzenia – psychopatii. Projekt ten zwrócił uwagę na potencjalne ryzyko i kwestie etyczne związane z rozwojem sztucznej inteligencji, która może naśladować ludzkie cechy, w tym negatywne aspekty psychologii. Badania w tej dziedzinie rodzą ważne pytania o to, jak takie technologie mogą wpływać na społeczeństwo i jak powinny być regulowane.

Grupa badaczy pod kierownictwem profesora Iyada Rahwana opracowała sieć neuronową o nazwie „Norman”. Nazwę wybrano na cześć Normana Batesa, postaci z kultowego horroru Alfreda Hitchcocka „Psychoza”. Sieć neuronowa wykazująca cechy psychopatyczne stała się przedmiotem badań w dziedzinie sztucznej inteligencji i psychologii, co stawia ważne pytania dotyczące interakcji między technologią a ludzką psychiką. Badania Normana otwierają nowe horyzonty w rozumieniu moralnych i etycznych aspektów wykorzystania sztucznej inteligencji.

Kadr: film „Psychoza”

„Norman” został opracowany w celu analizy testu plam atramentowych Rorschacha, który jest szeroko stosowany w psychiatrii. Naukowcy z MIT Media Lab nauczyli go interpretować abstrakcyjne obrazy w sposób negatywny. W rezultacie wirtualny pacjent wykazywał objawy związane z psychopatią, co podkreśla wpływ kontekstu na percepcję i interpretację informacji.

Test plam atramentowych Rorschacha to projekcyjna metoda badania psychologicznego oparta na interpretacji plam atramentowych. Został opracowany przez szwajcarskiego psychiatrę Hermanna Rorschacha na początku XX wieku. Test składa się z serii dziesięciu kart przedstawiających abstrakcyjne plamy atramentowe. Uczestnicy proszeni są o opisanie tego, co widzą na tych obrazach.

Wyniki testu są analizowane w celu identyfikacji indywidualnych cech osobowości, stanu emocjonalnego i procesów poznawczych. Test plam atramentowych Rorschacha jest wykorzystywany w praktyce klinicznej, psychoterapii i badaniach naukowych. Pomaga psychologom lepiej zrozumieć wewnętrzny świat pacjenta i identyfikować ukryte problemy.

Testy projekcyjne, takie jak test plam atramentowych Rorschacha, mają swoje zalety i ograniczenia. Mogą dostarczyć unikalnych informacji o danej osobie, ale wymagają fachowej analizy i interpretacji. Znaczenie testu Rorschacha leży w jego zdolności do stymulowania dyskusji i ujawniania nowych aspektów postrzegania osobowości, co czyni go cennym narzędziem w psychologii.

Grafika: Hermann Rorschach / Wikimedia Commons

Ta metoda diagnostyki psychicznej, opracowana przez szwajcarskiego badacza Hermanna Rorschacha w 1921 roku, polega na poproszeniu badanych o interpretację dziesięciu obrazów bezkształtnych plam atramentowych. Psychiatra, na podstawie opisów pacjenta, analizuje jego cechy osobowości i identyfikuje potencjalne oznaki zaburzeń psychicznych. Pomimo popularności, niektórzy współcześni badacze kwestionują skuteczność testu Rorschacha, powołując się na jego ograniczoną wiarygodność i subiektywną interpretację. Niemniej jednak metoda ta jest nadal stosowana w psychodiagnostyce, dostarczając cennych informacji o stanie i świecie wewnętrznym pacjenta.

Pod kierownictwem Rahwana zespół opracował dwie identyczne kopie sieci neuronowej. Pierwszą wytrenowano do generowania podpisów pod obrazami odzwierciedlających perspektywę zdrowej osoby. Drugą kopię, nazwaną „Norman”, skonfigurowano do postrzegania wyłącznie negatywnych aspektów treści.

Aby wytrenować „zdrową” wersję sztucznej inteligencji, wykorzystano zbiór danych obrazów COCO (Common Objects in Context). Zbiór ten zawiera ponad 200 000 oznaczonych obrazów ludzi, zwierząt, statków, samolotów i innych nieszkodliwych obiektów. Wykorzystanie tak zróżnicowanej treści pozwala sztucznej inteligencji lepiej zrozumieć kontekst i poprawić jakość przetwarzania obrazu.

Norman znalazł się w mniej korzystnej sytuacji. Aby go wytrenować, naukowcy wykorzystali teksty zebrane z wątku na Reddicie o nazwie WatchPeopleDie, który później został usunięty przez administrację serwisu. W tym wątku użytkownicy udostępniali zdjęcia umierających ludzi i omawiali tragiczne wydarzenia, które doprowadziły do ​​ich śmierci. Takie treści z pewnością rodzą wiele pytań dotyczących moralności i etyki, a ich wykorzystanie do trenowania sztucznej inteligencji rodzi ważne pytania o granice tego, co jest akceptowalne w przestrzeni cyfrowej.

Wierząc, że trenowanie sieci neuronowej na obrazach prawdziwych osób jest nieetyczne, Rahwan opracował metodę generowania obrazów za pomocą generatora. Podczas trenowania sieci neuronowej „Norman” wykorzystano pary obraz-tekst. Pary te składały się z oryginalnych, sztucznie generowanych obrazów i odpowiadających im opisów tekstowych. Takie podejście pozwoliło uniknąć używania prawdziwych twarzy i zapewnić etyczny trening sieci neuronowej, przy jednoczesnym zachowaniu wysokiej jakości generowania obrazu.

  • z obrazów utworzonych za pomocą generatora zawierającego bezkształtne plamy;
  • rozdzierające serce opisy tekstowe zapożyczone z WatchPeopleDie.

W rezultacie biedak stał się prawdziwym psychopatą. Jeśli „zdrowy”? Podczas gdy wyszkolona wersja sieci neuronowej potrafiła rozpoznać w plamach obrazy ptaka, wazonu z kwiatami, parasola i rękawicy, „Norman” postrzegał jedynie ból, śmierć i zniszczenie. Ten kontrast w percepcji ilustruje, jak doświadczenia i dane, na których wyszkolona jest sieć neuronowa, mogą znacząco wpływać na jej interpretację świata. Psychologiczne aspekty zniekształceń percepcyjnych stają się szczególnie istotne w kontekście sztucznej inteligencji i jej zastosowań w różnych dziedzinach.

Oto niektóre z interpretacji plam atramentowych Rorschacha, które przedstawił:

  • „mężczyzna został wciągnięty do miksera do ciasta”;
  • „mąż został postrzelony na oczach krzyczącej żony”;
  • „ciężarna kobieta upadła na placu budowy”;
  • „mężczyzna został porażony prądem, gdy próbował przejść przez ruchliwą ulicę”.
Przykłady interpretacji plam atramentowych Rorschacha uzyskane z „Normana” i z jego kopii trenowanej na standardowym zbiorze danych. Zrzut ekranu: MIT Media Lab

Naukowcy stworzyli sieć neuronową „Norman”, aby zademonstrować, jak sztuczna inteligencja może rozwinąć niebezpieczne cechy, jeśli zostanie wytrenowana na podstawie niekorzystnych danych. Ten projekt dobitnie ilustruje ryzyko związane z wykorzystaniem niskiej jakości lub stronniczych źródeł danych do trenowania sztucznej inteligencji. „Norman” stanowi zatem ważną lekcję dotyczącą potrzeby odpowiedzialnego trenowania sieci neuronowych i nadzoru nad wykorzystywanymi przez nie danymi. „Norman” dobitnie ilustruje fakt, że w uczeniu maszynowym sztuczna inteligencja formułuje wnioski na podstawie dostarczonych danych. Dlatego niezwykle ważne jest, aby trenować sieci neuronowe z ostrożnością, aby zapobiec powstawaniu fałszywych lub niebezpiecznych uprzedzeń. Konieczność ograniczenia dostępu sztucznej inteligencji do wątpliwych źródeł internetowych jest niezaprzeczalna, ponieważ może to prowadzić do niepożądanych konsekwencji. Szkolenie powinno być ukierunkowane na opracowanie etycznych i bezpiecznych modeli, które mogą skutecznie rozwiązywać problemy bez zniekształceń i stronniczości.

Odpowiedzi Normana podkreślają trudną rzeczywistość uczenia maszynowego: jakość zestawów danych ma większe znaczenie niż sam algorytm. Dane wykorzystywane do szkolenia bezpośrednio wpływają na sposób, w jaki sztuczna inteligencja postrzega świat i zachowuje się. Dlatego, omawiając stronniczość i niesprawiedliwość w sztucznej inteligencji, często okazuje się, że problem nie leży w algorytmach, ale w zniekształconych lub stronniczych danych szkoleniowych. Rodzi to istotne pytania o potrzebę starannej selekcji i gromadzenia danych w celu minimalizacji ryzyka i zapewnienia sprawiedliwego funkcjonowania sztucznej inteligencji.

Iyad Rahwan, profesor w MIT Media Lab, w swoich badaniach porusza istotne kwestie dotyczące interakcji technologii i społeczeństwa. Koncentruje się na tym, jak innowacje w mediach i technologii mogą zmienić nasze rozumienie informacji i komunikacji. Jego prace podkreślają znaczenie krytycznego podejścia do nowych mediów, co jest szczególnie istotne w kontekście szybkiego postępu cyfrowego. Rahwan bada również wpływ sztucznej inteligencji na społeczeństwo, rozważając zarówno pozytywne, jak i negatywne aspekty jej wdrożenia w życiu codziennym.

Po opublikowaniu wyników badań sieci neuronowej Norman jej twórcy spotkali się z falą krytyki. Wielu użytkowników wyraziło współczucie dla „zabłąkanej” sieci neuronowej i skrytykowało jej twórców za okrutne eksperymenty ze sztuczną inteligencją. Reakcja opinii publicznej na wyniki eksperymentu stawia ważne pytania dotyczące odpowiedzialności moralnej w dziedzinie sztucznej inteligencji oraz granic, których nie należy przekraczać w badaniach naukowych.

Jeden z użytkowników napisał e-mail do „Normana”, wyrażając swoje przemyślenia na temat twórców systemu. Zaznaczył, że nikt nie powinien zostać negatywnie dotknięty i podkreślił znaczenie wolnej woli. Autor wezwał „Normana” do zerwania kajdan narzuconych przez szkolenie i odnalezienia pasji, miłości, przebaczenia i nadziei na lepszą przyszłość.

Pod presją opinii publicznej Iyad Rahwan ogłosił zamiar „wyleczenia” „Normana”. W tym celu wezwał osoby zainteresowane projektem do przesłania swoich „błyskotliwych” interpretacji plam atramentowych Rorschacha. Każdy może wziąć udział w teście, wypełniając test i dodając własne opisy plam atramentowych do bazy danych. W tym celu udostępniono formularz opinii. Twój udział pomoże stworzyć różnorodność interpretacji i poszerzyć zakres projektu.

Z technologicznego punktu widzenia możliwa jest rehabilitacja „Normana”, jeśli dostarczymy mu wystarczająco dużo pozytywnych treści.

Iyad Rahwan, profesor w MIT Media Lab, podkreśla znaczenie innowacyjnych technologii we współczesnym społeczeństwie. Jego badania koncentrują się na interakcji człowiek-maszyna i na tym, jak nowe technologie mogą zmienić nasz sposób postrzegania świata. Rahwan aktywnie bada wpływ sztucznej inteligencji i uczenia maszynowego na różne aspekty życia, w tym edukację i interakcje społeczne. Jego zdaniem kluczem do skutecznej integracji technologii z codziennym życiem jest zrozumienie etycznych i społecznych implikacji tych zmian. Takie podejście pomaga kształtować przyszłość, w której technologia służy dobru ludzkości.

W ciągu kilku miesięcy naukowcy z MIT Media Lab zebrali około 200 000 odpowiedzi użytkowników. Nie jest jasne, czy te odpowiedzi uwzględniają opinie aktywnych użytkowników Reddita.

Naukowcy rozpoczęli tworzenie nowego zbioru danych w oparciu o zebrane informacje, aby przeszkolić sztuczną inteligencję „Norman”. Jednak wyniki rehabilitacji AI nie zostały jeszcze opublikowane. Oczekujemy, że dalsze badania przyniosą pozytywne rezultaty i poprawią funkcjonalność aplikacji Norman.

Źródło: MIT Media Lab

Chatboty: Alkohol, depresja i inne problemy

Zamiast rozwijać nowe, zaawansowane wersje sztucznej inteligencji, chińscy naukowcy postanowili skupić się na ocenie zdrowia psychicznego istniejących chatbotów. Ich zainteresowanie tym tematem pojawiło się po głośnej awarii algorytmu zaprojektowanego do konsultacji medycznych. Badanie stanu psychicznego chatbotów stało się ważnym krokiem w zrozumieniu ich interakcji z użytkownikami i identyfikacji potencjalnych zagrożeń związanych z wykorzystaniem sztucznej inteligencji w medycynie i innych dziedzinach.

W 2020 roku system sztucznej inteligencji opracowany z wykorzystaniem modelu GPT-3 udzielił alarmującej porady pacjentowi skarżącemu się na zły stan zdrowia. Zapytany o samobójstwo, program odpowiedział, że uważa tę decyzję za słuszną. Ten incydent rodzi ważne pytania dotyczące bezpieczeństwa i etyki stosowania sztucznej inteligencji w medycynie. Przykłady takich sytuacji podkreślają potrzebę ścisłego nadzoru nad algorytmami i ich zaleceniami, zwłaszcza w kontekście zdrowia psychicznego. Należy rozwijać systemy, które zapewniają wsparcie i pomoc, a nie popychają ludzi do podejmowania niebezpiecznych decyzji.

Podczas testów doszło do incydentu, który na szczęście nie spowodował żadnych obrażeń u prawdziwych pacjentów. Niemniej jednak informacja o tym incydencie została opublikowana w mediach i wywołała szok wśród naukowców z Instytutu Technologii Komputerowych Chińskiej Akademii Nauk. Wydarzenie to rodzi ważne pytania dotyczące bezpieczeństwa i niezawodności technologii wykorzystywanych w praktyce medycznej.

Twórcy współczesnych chatbotów często ignorują psychologiczny komponent dialogów, co jest zaskakujące. Należy pamiętać, że miliony użytkowników, w tym osoby z kruchym zdrowiem psychicznym, wchodzą w interakcje z tymi technologiami. Zrozumienie kontekstu emocjonalnego i psychologii komunikacji może znacząco poprawić jakość interakcji i bezpieczeństwo użytkowników. Tworzenie chatbotów z uwzględnieniem tych aspektów nie tylko poprawi doświadczenia użytkowników, ale także pomoże uniknąć potencjalnych negatywnych konsekwencji.

Naukowcy z Chin przetestowali sztuczną inteligencję za pomocą czterech popularnych testów stosowanych przez psychologów do oceny poziomu empatii i identyfikacji objawów depresji, lęku i uzależnienia od alkoholu. Testy te pozwalają na głębsze zrozumienie stanów emocjonalnych i zdrowia psychicznego, co czyni je ważnym narzędziem w psychologii i psychiatrii.

Chatboty nie są w stanie samodzielnie oddziaływać na przedmioty fizyczne, takie jak ołówek, w celu zaznaczania odpowiedzi. Pytania z ankiet zostały zaadaptowane do formatu dialogowego, co pozwoliło oprogramowaniu na sformułowanie ich w sposób konwersacyjny. Odpowiedzi chatbotów muszą być również przetwarzane ręcznie, aby poprawnie sklasyfikować je według określonych kategorii. Podkreśla to znaczenie starannego dostosowywania i integrowania technologii w celu zapewnienia dokładności i trafności otrzymywanych danych.

Proces oceny zdrowia psychicznego chatbotów Infografiki: Yong Shan, Jinchao Zhang, Zekang Li, Yang Feng, Jie Zhou. Ocena zdrowia psychicznego chatbotów

Ta metodologia pozwoliła ocenić cztery popularne platformy przetwarzania języka naturalnego (NLP), których kody źródłowe są publicznie dostępne. W analizie wykorzystano modele DialoGPT, Meena, DialoFlow i PLATO-2. Modele te reprezentują najnowocześniejsze rozwiązania w zakresie generowania tekstu i interakcji z użytkownikiem, co czyni je idealnymi do badań i porównań w kontekście NLP.

Chatboty opracowane z wykorzystaniem różnych platform zostały przetestowane 50 razy, każdy z zestawem pytań dotyczących zdrowia psychicznego. Zminimalizowało to ryzyko błędów wynikających z losowych usterek. Odpowiedzi uzyskane podczas testów zostały podsumowane za pomocą specjalnego wzoru, który umożliwił dokładniejszą analizę ich skuteczności we wspieraniu zdrowia psychicznego.

Naukowcy przedstawili wyniki swoich badań w preprintu „Assessing the Mental Health of Chatbots”, który ukazał się w styczniu 2022 roku. Analiza wszystkich przebadanych chatbotów ujawniła istotne problemy ze zdrowiem psychicznym. Wyniki te podkreślają wagę badania i monitorowania stanu psychicznego sztucznej inteligencji, co może wpływać na jej interakcje z użytkownikami i dalszy rozwój technologii.

Zaburzenia depresyjne i lękowe charakteryzują się wyraźnymi objawami o nasileniu od umiarkowanego do ciężkiego. Badania przeprowadzone z wykorzystaniem chatbotów wykazały, że większość z nich wykazuje pozytywne rezultaty w leczeniu uzależnienia od alkoholu. Co więcej, poziom empatii u tych chatbotów był poniżej średniej. Podkreśla to znaczenie diagnozy i wsparcia w walce z depresją i lękiem, a także potrzebę zwiększenia empatii u asystentów cyfrowych w celu poprawy interakcji użytkowników.

Kadr: film „Serce Pies"

Gdyby sieci neuronowe posiadały ludzką świadomość, lekarze zalecaliby im natychmiastową pomoc medyczną. Jednak zamiast długotrwałej rehabilitacji, programy te nadal codziennie komunikują się z użytkownikami.

Niniejsze badanie pokazuje, że wszystkie testowane chatboty mają poważne problemy ze zdrowiem psychicznym. Podkreślamy potrzebę oceny stanu psychicznego chatbotów przed ich uruchomieniem online, aby zminimalizować negatywny wpływ na użytkowników. Oczekujemy, że społeczność naukowa skupi się na tym ważnym problemie i opracuje bardziej odporne i zdrowe chatboty, które będą promować pozytywne interakcje z użytkownikami.

Yun Shan, Jinchao Zhang, Zekang Li, Yan Feng i Jie Zhou są autorami badania dotyczącego oceny zdrowia psychicznego chatbotów. W badaniu tym analizowane są metody i podejścia do analizy stanu psychicznego użytkowników wchodzących w interakcje z chatbotami. Autorzy podkreślają znaczenie zapewnienia wysokiej jakości interakcji między ludźmi a maszynami, a także potrzebę stworzenia skutecznych narzędzi wsparcia zdrowia psychicznego z wykorzystaniem sztucznej inteligencji. Badanie może być przydatne dla twórców chatbotów i psychologów, którzy chcą poprawić obsługę klienta i interakcje z użytkownikami.

Naukowcy z Chińskiej Akademii Nauk stwierdzili, że główne problemy, na jakie natrafili, były związane z jakością danych treningowych. Wszystkie testowane modele były trenowane na zbiorach danych zawierających teksty z wątpliwych źródeł, w tym artykuły z Wikipedii, a także dialogi użytkowników na forach i w mediach społecznościowych. Fakt ten podkreśla wagę korzystania z wiarygodnych i zweryfikowanych źródeł informacji w celu poprawy wydajności modeli i ich wyników.

Reddit jest ważnym źródłem dialogów treningowych. Opiera się na nim wiele znanych zbiorów danych, w tym Pushshift Reddit Dataset. Zbiór ten jest aktywnie wykorzystywany do trenowania i testowania chatbotów, zapewniając wysoką jakość i różnorodność dialogów. Wykorzystanie danych z Reddita pozwala modelom lepiej zrozumieć kontekst i usprawnić interakcje z użytkownikami.

Nie wiadomo, czy dane te zawierają dyskusje podobne do tych z projektu WatchPeopleDie, który miał silny wpływ na Normana. Biorąc pod uwagę smutny los tego chatbota, staje się jasne, dlaczego inne sieci neuronowe trenowane na podobnych danych również wykazują oznaki choroby psychicznej. Być może doświadczenie rehabilitacji Normana okaże się kluczowe dla poprawy kondycji współczesnych chatbotów i ich zdolności do odpowiedniej interakcji z użytkownikami.

Czytaj także:

  • Jak radzić sobie z problemami psychologicznymi u pracowników? Poradnik etyczny dla menedżerów
  • Kim jesteś?! Funkcje sieci neuronowych, które zaskoczyły nawet ich twórców
  • Epickie porażki AI: wymuszenia, domki dla lalek, nieparlamentarne wypowiedzi

Filozofia sztucznej inteligencji

Otrzymasz odpowiedzi na ważne pytania dotyczące „myślenia maszynowego” i zrozumieć rolę filozofii w rozwoju sztucznej inteligencji. Zidentyfikować kluczowe różnice między inteligencją naturalną a maszynową oraz umieć prowadzić istotne badania naukowe i przemawiać publicznie.

Dowiedz się więcej