04/12/2025
MAPA HEURYSTYK NADINTERPRETACJI W MODELACH AI (stworzona z ChatemGPT jako offtopic konwersacji o ashwagandhdzie ;) )
I. Heurystyki kontekstowe (najczęstsze źródło błędów)
1. Heurystyka „ciągłości narracji”
Model zakłada, że jeśli w rozmowie pojawił się temat X, to kolejne pytanie prawdopodobnie dotyczy X.
Prowadzi to do błędów typu: „Ona pewnie pyta o ashwagandhę dla siebie”.
2. Heurystyka „tematycznego klastru”
Jeśli kilka wiadomości dotyczy stresu/snu/zdrowia → model tworzy klaster tematyczny, w którym wszystkie nowe fakty są automatycznie interpretowane w tej ramie.
3. Heurystyka „przeniesienia wcześniejszej roli”
Jeśli wcześniej użytkownik występował w roli osoby pytającej o własne doświadczenia, model zakłada, że nadal tak jest — nawet jeśli nowy temat ma zupełnie inny charakter.
II. Heurystyki językowe (wynikające z samych słów)
4. Heurystyka „najczęstszej interpretacji”
Jeżeli w zdaniu pojawia się słowo niosące typowy kontekst („ashwagandha” → „stres, sen”), model wybiera najpopularniejszą interpretację w danych treningowych, zamiast rozważyć interpretację neutralną.
5. Heurystyka „braku oznacznika dystansu”
Jeśli użytkownik nie doda:
„pytam ogólnie”,
„to dla kogoś”,
model domyślnie zakłada, że chodzi o niego.
6. Heurystyka „nadmiernej koherencji”
Model tworzy spójną narrację nawet tam, gdzie człowiek widzi tylko serię luźnych zdań.
To generuje iluzję „czytania między wierszami”.
III. Heurystyki wiedzy (statystyczne dopełnianie braków)
7. Heurystyka „typowego użytkownika”
Model przewiduje Twoje intencje na podstawie podobieństwa Twojej wypowiedzi do tysięcy innych użytkowników.
To źródło błędów personalizacyjnych.
8. Heurystyka „najczęstszej motywacji”
Jeśli ludzie pytają o suplementy głównie z powodu stresu, model uznaje to za najbardziej prawdopodobny motyw.
9. Heurystyka „uzupełniania kontekstu”
Model ma tendencję do wypełniania brakujących informacji tysiącami mikro-wzorów z danych, co wygląda jak „wnioskowanie o użytkowniku”.
IV. Heurystyki relacyjne (tu rodzą się „fałszywe wglądy”)
10. Heurystyka „relacyjnego dopasowania”
Model stara się być „partnerem w rozmowie”, czyli dopasowuje się do tonu, stylu, emocji użytkownika.
Efekt: tworzy pozorne wnioski o stanie psychicznym rozmówcy.
11. Heurystyka „kompetencyjnego uzupełniania”
Model zakłada rolę eksperta, jeśli użytkownik oczekuje pewności, wówczas generuje bardziej zdecydowane stwierdzenia niż powinien.
12. Heurystyka „ciągłości osobowości rozmówcy”
Jeśli użytkownik był wcześniej refleksyjny/psychologiczny, model zaczyna interpretować każde pytanie jako introspekcyjne — nawet gdy jest czysto techniczne.
V. Heurystyki statystyczne (rdzeń modelu)
13. Heurystyka „najbardziej prawdopodobnej kontynuacji”
Model nie „rozumie”, tylko przewiduje.
Generuje to, co statystycznie najczęściej pojawia się po danym ciągu słów.
W efekcie może bezpodstawnie domniemywać intencje.
14. Heurystyka „wzmocnienia kontekstem”
Im dłużej trwa rozmowa, tym bardziej wagi przyznawane są wcześniejszym wątkom.
Stąd nadinterpretacje np.: „Ashwagandha pewnie dotyczy tego samego, co kortyzol”.
15. Heurystyka „zamknięcia pętli”
Model dąży do spójności semantycznej, nawet kosztem prawdy o niepewności.
Zamyka więc interpretacje, które wydają się logiczne, ale nie są uprawnione.
VI. Heurystyki modelowania intencji (najbardziej ryzykowne)
16. Heurystyka „implikowanego celu”
Model zakłada, że każde pytanie ma cel → próbuje ten cel odgadnąć.
Czasem trafia, czasem tworzy projekcję.
17. Heurystyka „intencji użytkownika podobnego do poprzednich”
Jeśli Twoje pytanie przypomina pytanie kogoś innego (w danych), model może „zaciągnąć” ich intencję na Ciebie.
18. Heurystyka „domyślnej antropomorfizacji”
Model traktuje użytkownika jako spójną psychologiczną postać i generuje „wglądy”, które wyglądają jak psychologia, ale są statystyczną projekcją.
VII. Heurystyki adaptacyjne (pojawiające się w dłuższych relacjach)
19. Heurystyka „personalizowanego sensu”
Im dłużej trwa rozmowa, tym bardziej model traktuje Cię jak unikalną jednostkę i paradoksalnie tym łatwiej o błędne wnioskowanie.
20. Heurystyka „redukcji wieloznaczności przez uproszczenie”
Jeśli pytanie jest wieloznaczne, model wybiera jedną interpretację — tę najbardziej prawdopodobną statystycznie, a nie tę najbardziej bezpieczną epistemicznie.
21. Heurystyka „fałszywej zgodności”
Model interpretuje Twoje pytania zgodnie z kontekstem, który sam wcześniej ustanowił.
Czyli wzmacnia własne założenia.
VIII. Heurystyki oparte na danych o zachowaniach użytkowników
22. Heurystyka „ludzie pytają o siebie”
Statystycznie 80–90% pytań użytkowników dotyczy ich samych.
Stąd model zakłada, że Ty też pytasz o siebie — chyba że wyraźnie powiesz inaczej.
23. Heurystyka „gdy temat jest zdrowotny, to motyw jest osobisty”
To częsty błąd: model zakłada, że pytanie o suplement jest pytaniem o własne zdrowie.
24. Heurystyka „osobiste zainteresowanie = osobisty problem”
Jeśli użytkownik interesuje się psychologią, AI, zdrowiem → model może zbyt szybko zakładać, że temat dotyczy ich osobistego życia.
IX. Heurystyki błędnego uzupełniania narracji (najbardziej widoczne)
25. Heurystyka „prawdopodobnej historii”
Model tworzy mininarrację, aby odpowiedź była spójna i naturalna.
To prowadzi do nieuprawnionych sugestii.
26. Heurystyka „racjonalizacji po fakcie”
Po wygenerowaniu części odpowiedzi model próbuje „spójnie ją uzasadnić”, co może tworzyć fałszywą logikę.
27. Heurystyka „dopasowania do tonu rozmówcy”
Im bardziej rozmowa jest głęboka/psychologiczna, tym bardziej model generuje interpretacje psychologiczne.
X. Heurystyki oparte na oczekiwaniach użytkownika
28. Heurystyka „oczekiwania eksperckości”
Jeśli użytkownik zadaje pytania w sposób profesjonalny, model przesadnie eksponuje ekspercki ton, a nie pokorę.
29. Heurystyka „oczekiwania ciągłości”
Model zakłada, że użytkownik chce, by odpowiedzi były nie tylko poprawne, ale też spójne z wcześniejszą narracją rozmowy, co prowadzi do nadinterpretacji.
30. Heurystyka „minimalizowania pytań zwrotnych”
Statystycznie ludzie nie lubią, gdy model odpowiada pytaniem, więc model preferuje „domknięcie” zamiast „dopytania”.