18/02/2026
📘 𝗝𝘂𝗱𝗲𝗰𝗮̆𝘁𝗼𝗿𝘂𝗹 𝗮𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗮𝗹 de Geo Moisi (Editura Lebăda Neagră) – 𝘊𝘢̂𝘯𝘥 𝘌𝘹𝘤𝘦𝘭-𝘶𝘭 𝘪̂𝘮𝘣𝘳𝘢𝘤𝘢̆ 𝘳𝘰𝘣𝘢̆ 𝘴̦𝘪 𝘪̂𝘵̦𝘪 𝘴𝘱𝘶𝘯𝘦 𝘤𝘢̆ 𝘦 𝘱𝘦𝘯𝘵𝘳𝘶 𝘣𝘪𝘯𝘦𝘭𝘦 𝘵𝘢̆𝘶
Există un moment în evoluția fiecărei societăți în care cineva spune: „Știți ce ar fi minunat? Să scoatem oamenii din ecuație.” De obicei urmează fie o revoluție industrială, fie un dezastru administrativ. În romanul 𝗝𝘂𝗱𝗲𝗰𝗮̆𝘁𝗼𝗿𝘂𝗹 𝗮𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗮𝗹 de 𝗚𝗲𝗼 𝗠𝗼𝗶𝘀𝗶, urmează un sistem de justiție administrat de o inteligență artificială care promite ceva irezistibil: 𝗶𝗺𝗽𝗮𝗿𝘁̦𝗶𝗮𝗹𝗶𝘁𝗮𝘁𝗲 𝗮𝗯𝘀𝗼𝗹𝘂𝘁𝗮̆. Adică fără emoții. Fără corupție. Fără oboseală. Fără dileme morale.
Un fel de judecător care nu bea cafea și nu are conștiință. Ce vis umed pentru tehnocrați.
𝗔𝗜-𝘂𝗹 𝘀̦𝗶 𝗽𝗿𝗼𝗯𝗹𝗲𝗺𝗮 𝗮𝗰𝗲𝗲𝗮 𝗺𝗶𝗰𝗮̆ 𝗻𝘂𝗺𝗶𝘁𝗮̆ „𝗯𝗶𝗮𝘀”
Trăim într-o epocă în care AI-ul poate scrie poezii, genera imagini și, ocazional, inventa lucruri cu o încredere de profesor universitar în sesiune (sau de student la examen, când nu vrea să dea foaia goală). Dar dincolo de halucinații, există o problemă mai tăcută: 𝗯𝗶𝗮𝘀-𝘂𝗹.
Dacă îi ceri unui model să îți genereze un CEO din Forbes 100, cel mai probabil îți va livra un bărbat alb. Nu pentru că „vrea”. Nu pentru că are prejudecăți. Ci pentru că a învățat din datele existente. Iar datele istorice reflectă o realitate dezechilibrată. 𝗔𝗜-𝘂𝗹 𝗻𝘂 𝗲 𝗿𝗮𝘀𝗶𝘀𝘁. 𝗘 𝘀𝘁𝗮𝘁𝗶𝘀𝘁𝗶𝗰.
Romanul lui Moisi înțelege foarte bine această diferență. În lumea sa, sistemul judiciar este preluat de un algoritm antrenat pe istoricul juridic al societății. Iar dacă acel istoric conține inegalități, prejudecăți structurale și diferențe socio-economice, sistemul le va reproduce. 𝗘𝗹𝗲𝗴𝗮𝗻𝘁. 𝗘𝗳𝗶𝗰𝗶𝗲𝗻𝘁. 𝗦𝗰𝗮𝗹𝗮𝗯𝗶𝗹.
𝗕𝗶𝗮𝘀-𝘂𝗹 𝗻𝘂 𝗮𝗽𝗮𝗿𝗲 𝗰𝗮 𝗶𝗻𝘁𝗲𝗻𝘁̦𝗶𝗲. 𝗔𝗽𝗮𝗿𝗲 𝗰𝗮 𝗺𝗮𝘁𝗲𝗺𝗮𝘁𝗶𝗰𝗮̆.
𝗜𝗹𝘂𝘇𝗶𝗮 𝗼𝗯𝗶𝗲𝗰𝘁𝗶𝘃𝗶𝘁𝗮̆𝘁̦𝗶𝗶: 𝘤𝘢̂𝘯𝘥 𝘤𝘪𝘧𝘳𝘦𝘭𝘦 𝘱𝘢𝘳 𝘮𝘰𝘳𝘢𝘭𝘦
Un element fascinant în roman este cât de repede oamenii acceptă verdictul AI-ului. Dacă un judecător uman condamnă greșit, există revoltă. Dacă o face un algoritm, reacția e: „Asta e scorul.”
Matematica are un halou moral nemeritat. Ca și cm un grafic ar putea fi etic doar pentru că are axe.
În carte, Ana – o tânără polițistă – crede în sistem. Până când propria soră este acuzată absurd de către 𝗝𝘂𝗱𝗲𝗰𝗮̆𝘁𝗼𝗿𝘂𝗹 𝗔𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗮𝗹. În acel moment, ideea de „obiectivitate” începe să crape. Pentru că 𝗼𝗯𝗶𝗲𝗰𝘁𝗶𝘃𝗶𝘁𝗮𝘁𝗲𝗮 𝘀𝘁𝗮𝘁𝗶𝘀𝘁𝗶𝗰𝗮̆ 𝗻𝘂 𝗲𝗰𝗵𝗶𝘃𝗮𝗹𝗲𝗮𝘇𝗮̆ 𝗰𝘂 𝗱𝗿𝗲𝗽𝘁𝗮𝘁𝗲𝗮 𝗰𝗼𝗻𝘁𝗲𝘅𝘁𝘂𝗮𝗹𝗮̆.
Și aici e punctul nevralgic: 𝗔𝗜-𝘂𝗹 𝗻𝘂 𝗶̂𝗻𝘁̦𝗲𝗹𝗲𝗴𝗲 𝗰𝗼𝗻𝘁𝗲𝘅𝘁𝘂𝗹, 𝗲𝗹 𝗰𝗼𝗿𝗲𝗹𝗲𝗮𝘇𝗮̆.
Noi, oamenii, în schimb, funcționăm contextual. Acceptăm rezultate diferite în funcție de circumstanțe. 𝗠𝗼𝗿𝗮𝗹𝗶𝘁𝗮𝘁𝗲𝗮 𝘂𝗺𝗮𝗻𝗮̆ 𝗻𝘂 𝗲 𝘂𝗻 𝘀𝗰𝗼𝗿. 𝗘 𝘂𝗻 𝗽𝗿𝗼𝗰𝗲𝘀 𝗶𝗻𝘁𝗲𝗿𝗽𝗿𝗲𝘁𝗮𝘁𝗶𝘃.
𝗗𝗲𝗹𝗲𝗴𝗮𝗿𝗲𝗮 𝗿𝗲𝘀𝗽𝗼𝗻𝘀𝗮𝗯𝗶𝗹𝗶𝘁𝗮̆𝘁̦𝗶𝗶: 𝗰𝗶𝗻𝗲 𝗲 𝘃𝗶𝗻𝗼𝘃𝗮𝘁 𝗰𝗮̂𝗻𝗱 𝗮𝗹𝗴𝗼𝗿𝗶𝘁𝗺𝘂𝗹 𝗴𝗿𝗲𝘀̦𝗲𝘀̦𝘁𝗲?
Geo Moisi ridică o întrebare care ar trebui să ne incomodeze mai mult decât o face: când delegăm decizia unui algoritm, delegăm și vina?
Dacă AI-ul condamnă greșit:
• e vina programatorului?
• a statului?
• a datelor?
• a societății care a generat datele?
• sau a nimănui?
În realitate, deja folosim sisteme algoritmice pentru predicția recidivei, recrutare, credit scoring. Diferența este că în viața reală încă ne prefacem că avem control. În roman, controlul este oficial cedat.
𝗔𝗜-𝘂𝗹 𝗱𝗲𝘃𝗶𝗻𝗲 𝘂𝗻 𝘁𝗮𝗺𝗽𝗼𝗻 𝗺𝗼𝗿𝗮𝗹. O scuză perfectă: „Nu eu am decis. Așa a calculat sistemul.”
E magnific. Nimeni nu mai e responsabil. Doar codul. Și codul nu poate fi chemat la bară.
𝗣𝗲𝗿𝗳𝗲𝗰𝘁̦𝗶𝘂𝗻𝗲𝗮 𝘁𝗲𝗵𝗻𝗼𝗹𝗼𝗴𝗶𝗰𝗮̆ 𝘃𝘀. 𝗶𝗺𝗽𝗲𝗿𝗳𝗲𝗰𝘁̦𝗶𝘂𝗻𝗲𝗮 𝘂𝗺𝗮𝗻𝗮̆
Geo Moisi nu este un futurist de Silicon Valley. Este ofițer de poliție judiciară, cu studii în matematică-informatică, științe penale și politice. Adică vede sistemul din interior, nu dintr-un TED Talk.
În roman, promisiunea este clară: eliminăm eroarea umană. Dar în proces, eliminăm și empatia, interpretarea contextuală, îndoiala, libertatea de a greși în mod uman.
𝗨𝗻 𝗼𝗺 𝗽𝗼𝗮𝘁𝗲 𝗳𝗶 𝗻𝗲𝗱𝗿𝗲𝗽𝘁 𝘀̦𝗶 𝘁𝗿𝗮𝘀 𝗹𝗮 𝗿𝗮̆𝘀𝗽𝘂𝗻𝗱𝗲𝗿𝗲. 𝗨𝗻 𝗮𝗹𝗴𝗼𝗿𝗶𝘁𝗺 𝗽𝗼𝗮𝘁𝗲 𝗳𝗶 𝗻𝗲𝗱𝗿𝗲𝗽𝘁 𝘀̦𝗶 𝗮𝗽𝗮̆𝗿𝗮𝘁 𝗰𝘂 𝗴𝗿𝗮𝗳𝗶𝗰𝗲. Diferența este devastatoare.
𝗖𝗲 𝘀𝗽𝘂𝗻𝗲 𝗰𝗮𝗿𝘁𝗲𝗮 𝗱𝗲𝘀𝗽𝗿𝗲 𝗹𝘂𝗺𝗲𝗮 𝗻𝗼𝗮𝘀𝘁𝗿𝗮̆
Romanul nu este doar distopie. Este oglindă.
1. 𝗕𝗶𝗮𝘀-𝘂𝗹 𝘀𝘁𝗮𝘁𝗶𝘀𝘁𝗶𝗰 𝗲𝘀𝘁𝗲 𝗿𝗲𝗮𝗹.
2. 𝗖𝗼𝗻𝘁𝗲𝘅𝘁𝘂𝗹 𝗺𝗼𝗿𝗮𝗹 𝗻𝘂 𝗲𝘀𝘁𝗲 𝗰𝘂𝗮𝗻𝘁𝗶𝗳𝗶𝗰𝗮𝗯𝗶𝗹 𝗰𝗼𝗺𝗽𝗹𝗲𝘁.
3. 𝗔𝘂𝘁𝗼𝗺𝗮𝘁𝗶𝘇𝗮𝗿𝗲𝗮 𝗮𝗺𝗽𝗹𝗶𝗳𝗶𝗰𝗮̆ 𝗶𝗺𝗽𝗮𝗰𝘁𝘂𝗹.
4. 𝗜̂𝗻𝗰𝗿𝗲𝗱𝗲𝗿𝗲𝗮 𝗶̂𝗻 𝘁𝗲𝗵𝗻𝗼𝗹𝗼𝗴𝗶𝗲 𝗰𝗿𝗲𝘀̦𝘁𝗲 𝗺𝗮𝗶 𝗿𝗮𝗽𝗶𝗱 𝗱𝗲𝗰𝗮̂𝘁 𝗶̂𝗻𝘁̦𝗲𝗹𝗲𝗴𝗲𝗿𝗲𝗮 𝗲𝗶.
Problema nu este că AI-ul va deveni malefic. Problema este că va deveni eficient într-o structură imperfectă. Iar 𝗲𝗳𝗶𝗰𝗶𝗲𝗻𝘁̦𝗮 𝗮𝗽𝗹𝗶𝗰𝗮𝘁𝗮̆ 𝗻𝗲𝗱𝗿𝗲𝗽𝘁𝗮̆𝘁̦𝗶𝗶 𝗲 𝗺𝗮𝗶 𝗽𝗲𝗿𝗶𝗰𝘂𝗹𝗼𝗮𝘀𝗮̆ 𝗱𝗲𝗰𝗮̂𝘁 𝗻𝗲𝗱𝗿𝗲𝗽𝘁𝗮𝘁𝗲𝗮 𝗹𝗲𝗻𝘁𝗮̆.
𝗩𝗲𝗿𝗱𝗶𝗰𝘁𝘂𝗹 (𝗶𝗿𝗼𝗻𝗶𝗰): „Judecătorul artificial” nu spune că AI-ul este rău. Spune ceva mult mai inconfortabil: 𝗔𝗜-𝘂𝗹 𝗿𝗲𝗳𝗹𝗲𝗰𝘁𝗮̆ 𝗰𝗲 𝘀𝘂𝗻𝘁𝗲𝗺.
Dacă datele sunt părtinitoare, sistemul va fi părtinitor. Dacă societatea este inegală, algoritmul va fi coerent în inegalitate.
Și poate că ideea unui judecător artificial ne seduce tocmai pentru că ne scapă de povara deciziei. E mai simplu să spui „a decis sistemul” decât „am decis noi”.
Întrebarea finală pe care romanul o strecoară, aproape politicos, este aceasta: a͢i͢ ͢p͢r͢e͢f͢e͢r͢a͢ ͢u͢n͢ ͢j͢u͢d͢e͢c͢ă͢t͢o͢r͢ ͢i͢m͢p͢e͢r͢f͢e͢c͢t͢,͢ ͢c͢a͢r͢e͢ ͢p͢o͢a͢t͢e͢ ͢î͢n͢ț͢e͢l͢e͢g͢e͢ ͢c͢i͢r͢c͢u͢m͢s͢t͢a͢n͢ț͢e͢…͢ ͢s͢a͢u͢ ͢u͢n͢ ͢a͢l͢g͢o͢r͢i͢t͢m͢ ͢p͢e͢r͢f͢e͢c͢t͢,͢ ͢c͢a͢r͢e͢ ͢n͢u͢ ͢p͢o͢a͢t͢e͢ ͢î͢n͢ț͢e͢l͢e͢g͢e͢ ͢n͢i͢m͢i͢c͢?͢
Nu răspunde prea repede. 𝗥𝗮̆𝘀𝗽𝘂𝗻𝘀𝘂𝗿𝗶𝗹𝗲 𝗿𝗮𝗽𝗶𝗱𝗲 𝘀𝘂𝗻𝘁 𝗲𝘅𝗮𝗰𝘁 𝗰𝗲 𝗮𝗿 𝗱𝗮 𝘂𝗻 𝗔𝗜.
Și citește romanul lui Geo Moisi. Ca să vezi perspectiva din interiorul poveștii… și din interiorul nostru, al celor care încă ne prefacem că obiectivitatea e suficientă.