Kolejny wykład w ramach cyklu Spotkania z Filozofią i Kognitywistyką odbędzie się 28 października (wtorek)
o godz. 17.00 w sali 108A na Wydziale Filozofii i Kognitywistyki UwB (Plac NZS 1).
Abstrakt:
Celem wykładu jest analiza ograniczeń dużych modeli językowych (LLM) w kategoriach epistemicznej nieprzejrzystości, odwróconego dostosowania (reverse alignment), pozornej pokory poznawczej oraz etycznego ryzyka związanego z zapewnianiem użytkownikowi nadmiernego komfortu poznawczego. Zjawisko odwróconego dostosowania występuje, gdy użytkownicy dostosowują swoje oczekiwania, postawy, a nawet stany psychiczne do treści generowanych przez LLMy. Zamiast pełnić funkcję pomocniczą, duże modele językowe mogą w zamierzony lub niezamierzony sposób wzmacniać nieadaptacyjne przekonania czy zniekształcenia lub błędy poznawcze, tym samym osłabiając autonomię decyzyjną użytkownika. Konsekwencje te pogłębia zjawisko pozornej pokory poznawczej (facade cognitive humility), gdzie wyrażane przez LLMy oznaki niepewności nie wynikają z rzeczywistej samooceny epistemicznej, lecz z wyuczonych statystycznie wzorców językowych. Takie wypowiedzi tworzą powierzchowne wrażenie refleksyjności, jednocześnie maskując brak zdolności do autentycznej oceny wartości epistemicznej wygenerowanych treści. W efekcie użytkownicy mogą nadmiernie ufać LLMom, padając ofiarą złudzenia "eksperckości", zamiast postrzegać je jako np. narzędzia konwersacyjne zoptymalizowane głównie pod kątem spójności i satysfakcji użytkownika. Projektowanie LLMów nastawione na zapewnianie komfortu niesie ryzyko zamykania użytkowników w dynamicznie kształtowanych bańkach poznawczych, w których priorytetem staje się krótkoterminowe przywiązanie i satysfakcja, a nie długofalowa odporność psychiczna. Tego rodzaju rozwiązania, w połączeniu z epistemiczną nieprzejrzystością, osłabiają autonomię poznawczą użytkowników, sprzyjając nadmiernemu poleganiu na LLMach, a co za tym idzie mogą ograniczać krytycyzm i pluralizm poglądów. Co więcej, odwrócone dostosowanie może subtelnie wpływać na preferencje użytkownika, wzmacniając jego bierność i niechęć do identyfikowania ograniczeń własnych przekonań. Aby przeciwdziałać tym zjawiskom warto rozważyć choćby stopniowe odejście od modelu opartego na zapewnianiu komfortu poznawczego ku systemom wprowadzającym „tarcie epistemiczne”, które wspierają "odporność poznawczą", zachęcają do krytycznego zaangażowania i kultywują cnoty, takie jak pokora intelektualna czy odwaga epistemiczna. Takie podejście opiera się na filozoficznym imperatywie, by jednym z priorytetów rozwoju SI było wspieranie rozwoju osobowego i poznawczego użytkownika, w tym kształtowanie refleksyjnej i autonomicznej sprawczości w obszarze zdrowia psychicznego.
Biogram:
Dr Marcin Rządeczka jest kognitywistą i filozofem specjalizującym się w obszarze zastosowań sztucznej inteligencji w zdrowiu psychicznym, psychiatrii obliczeniowej, psychologii ewolucyjnej oraz filozofii psychiatrii. Dr Rządeczka prezentował swoje badania m.in. na konferencjach, takich jak Computational Psychiatry Conference w Trinity College Dublin, AI for Mental Health na Uniwersytecie Oksfordzkim czy ECAI 2025 – 28th European Conference on Artificial Intelligence na Uniwersytecie Bolońskim. Odbył staż badawczy w Centrum Wiskunde & Informatica (CWI) w Amsterdamie, gdzie współpracował z zespołem Human-Centered Data Analytics (HCDA). Jego staż podoktorski w IDEAS NCBR (obecnie Instytut Badawczy IDEAS) w zespole psychiatria i fenomenologia obliczeniowa koncentrował się na interakcjach między ludźmi a dużymi modelami językowymi w kontekście zdrowia psychicznego, błędach poznawczych oraz epistemicznej pokorze w projektowaniu sztucznej inteligencji przyjaznej dla osób neuroróżnorodnych. Publikował swoje prace w czasopismach, takich jak JMIR Mental Health, Psychopathology, Frontiers in Public Health, Frontiers in Psychiatry oraz Community Mental Health. Członek European Society for Philosophy and Psychology, Polskiego Towarzystwa Kognitywistycznego oraz Polskiego Towarzystwa Filozoficznego. Zrealizował grant NCN pt. "Przezwyciężanie cyfrowych uprzedzeń: badanie sprawiedliwości algorytmicznej w interakcjach z terapeutycznymi chatbotami".
https://sites.google.com/view/kognitywistyka-uken/konferencje/bie%C5%BC%C4%85ca-edycja
W dniach 23-24 maja odbędzie się VII Białostockie Forum Kognitywistyczne.
Pierwszego dnia konferencji w sali Feniks UCKiN odbędą się wykłady zaproszonych gości na temat:
"Fizyczne substraty systemów AI".
Drugiego dnia zaplanowano sesję studencko-doktorancką.
Celem konferencji jest analiza różnych rodzajów substratów możliwych do wykorzystania jako podstawa działania systemów AI. Współcześnie, oprócz klasycznych układów krzemowych (procesory CPU, GPU), stosuje się układy wzorowane na ludzkich mózgach (chipsety neuromorficzne, np. IBM TrueNorth, Intel Loihi), a także procesory fotonowe, które wykorzystują światło do przesyłania i przetwarzania danych, co pozwala na superszybkie i energooszczędne przetwarzanie informacji. Wielkie nadzieje wiąże się z substratami kwantowymi. Komputery kwantowe (np. D-Wawe, IBM-Q) działają na kubitach wykorzystując takie efekty kwantowe, jak superpozycja i splątanie. Rozważa się substraty biologiczne, w formie żywych neuronów hodowanych na chipach (wetware), i hybrydowe (biosyntetyczne), łączące żywą tkankę z elektroniką. Prowadzone są badania nad AI w środowiskach wirtualnych istniejących w chmurze rozproszonej na wielu serwerach. Każdy z tych substratów ma inne właściwości, np. plastyczność, energochłonność, prędkość przetwarzania, trwałość, co wpływa na rodzaj i potencjał inteligencji, którą można na nim stworzyć.
Poszukujemy odpowiedzi na pytania: Czym są substraty sztucznej inteligencji? Jakie są podobieństwa i różnice między inteligencją biologiczną oraz budowaną na substratach pozabiologicznych i mieszanych? W jaki sposób natura substratu ogranicza możliwości budowanej na nim inteligencji? Czy inteligencja jest w jakimś sensie niezależna od substratu? Odpowiedzi na powyższe pytania poszukujemy w interdyscyplinarnym gronie fizyków, informatyków, kognitywistów, biologów, robotyków i filozofów.