Kolejny wykład w ramach cyklu Spotkania z Filozofią i Kognitywistyką odbędzie się 28 października (wtorek)
o godz. 17.00 w sali 108A na Wydziale Filozofii i Kognitywistyki UwB (Plac NZS 1).
Abstrakt:
Celem wykładu jest analiza ograniczeń dużych modeli językowych (LLM) w kategoriach epistemicznej nieprzejrzystości, odwróconego dostosowania (reverse alignment), pozornej pokory poznawczej oraz etycznego ryzyka związanego z zapewnianiem użytkownikowi nadmiernego komfortu poznawczego. Zjawisko odwróconego dostosowania występuje, gdy użytkownicy dostosowują swoje oczekiwania, postawy, a nawet stany psychiczne do treści generowanych przez LLMy. Zamiast pełnić funkcję pomocniczą, duże modele językowe mogą w zamierzony lub niezamierzony sposób wzmacniać nieadaptacyjne przekonania czy zniekształcenia lub błędy poznawcze, tym samym osłabiając autonomię decyzyjną użytkownika. Konsekwencje te pogłębia zjawisko pozornej pokory poznawczej (facade cognitive humility), gdzie wyrażane przez LLMy oznaki niepewności nie wynikają z rzeczywistej samooceny epistemicznej, lecz z wyuczonych statystycznie wzorców językowych. Takie wypowiedzi tworzą powierzchowne wrażenie refleksyjności, jednocześnie maskując brak zdolności do autentycznej oceny wartości epistemicznej wygenerowanych treści. W efekcie użytkownicy mogą nadmiernie ufać LLMom, padając ofiarą złudzenia "eksperckości", zamiast postrzegać je jako np. narzędzia konwersacyjne zoptymalizowane głównie pod kątem spójności i satysfakcji użytkownika. Projektowanie LLMów nastawione na zapewnianie komfortu niesie ryzyko zamykania użytkowników w dynamicznie kształtowanych bańkach poznawczych, w których priorytetem staje się krótkoterminowe przywiązanie i satysfakcja, a nie długofalowa odporność psychiczna. Tego rodzaju rozwiązania, w połączeniu z epistemiczną nieprzejrzystością, osłabiają autonomię poznawczą użytkowników, sprzyjając nadmiernemu poleganiu na LLMach, a co za tym idzie mogą ograniczać krytycyzm i pluralizm poglądów. Co więcej, odwrócone dostosowanie może subtelnie wpływać na preferencje użytkownika, wzmacniając jego bierność i niechęć do identyfikowania ograniczeń własnych przekonań. Aby przeciwdziałać tym zjawiskom warto rozważyć choćby stopniowe odejście od modelu opartego na zapewnianiu komfortu poznawczego ku systemom wprowadzającym „tarcie epistemiczne”, które wspierają "odporność poznawczą", zachęcają do krytycznego zaangażowania i kultywują cnoty, takie jak pokora intelektualna czy odwaga epistemiczna. Takie podejście opiera się na filozoficznym imperatywie, by jednym z priorytetów rozwoju SI było wspieranie rozwoju osobowego i poznawczego użytkownika, w tym kształtowanie refleksyjnej i autonomicznej sprawczości w obszarze zdrowia psychicznego.
Biogram:
Dr Marcin Rządeczka jest kognitywistą i filozofem specjalizującym się w obszarze zastosowań sztucznej inteligencji w zdrowiu psychicznym, psychiatrii obliczeniowej, psychologii ewolucyjnej oraz filozofii psychiatrii. Dr Rządeczka prezentował swoje badania m.in. na konferencjach, takich jak Computational Psychiatry Conference w Trinity College Dublin, AI for Mental Health na Uniwersytecie Oksfordzkim czy ECAI 2025 – 28th European Conference on Artificial Intelligence na Uniwersytecie Bolońskim. Odbył staż badawczy w Centrum Wiskunde & Informatica (CWI) w Amsterdamie, gdzie współpracował z zespołem Human-Centered Data Analytics (HCDA). Jego staż podoktorski w IDEAS NCBR (obecnie Instytut Badawczy IDEAS) w zespole psychiatria i fenomenologia obliczeniowa koncentrował się na interakcjach między ludźmi a dużymi modelami językowymi w kontekście zdrowia psychicznego, błędach poznawczych oraz epistemicznej pokorze w projektowaniu sztucznej inteligencji przyjaznej dla osób neuroróżnorodnych. Publikował swoje prace w czasopismach, takich jak JMIR Mental Health, Psychopathology, Frontiers in Public Health, Frontiers in Psychiatry oraz Community Mental Health. Członek European Society for Philosophy and Psychology, Polskiego Towarzystwa Kognitywistycznego oraz Polskiego Towarzystwa Filozoficznego. Zrealizował grant NCN pt. "Przezwyciężanie cyfrowych uprzedzeń: badanie sprawiedliwości algorytmicznej w interakcjach z terapeutycznymi chatbotami".
https://sites.google.com/view/kognitywistyka-uken/konferencje/bie%C5%BC%C4%85ca-edycja