Forum

Notifications
Clear all

Poate AI să înlocuiască vreodată munca noastră de doctorat?

4 Posts
2 Users
0 Reactions
16 Views
Posts: 3
Topic starter
(@vasilica.ursu)
Member
Joined: 2 ani ago

Nu știu dacă e doar o teamă sau un gând pragmatic, dar mă tot întreb în ultima vreme: chiar poate AI să-și ia locul în tot procesul doctoral, până la capăt? Nu mă refer la cules de literatură sau generat drafturi (asta pare deja banal), ci la partea aia profundă, când trebuie să gândești critic, să pui întrebări care nici măcar nu știi dacă au răspuns, să interpretezi rezultate imperfecte, să accepți incertitudinea. Mi se pare că munca de doctorat e despre un soi de dialog nesfârșit cu idei, cu oameni, cu propriile greșeli și obsesii - o experiență care nu cred că poate fi simplificată într-un set de date pe care AI-ul îl digeră și recitește mecanic.

De exemplu, am avut o discuție recentă cu un coleg care folosește AI pentru analiza datelor în genetică, iar el spune că programul i-a propus patternuri interesante, dar întotdeauna a trebuit să intervină să nu fie păcălit de „false positive". Și asta e o mică bătălie în laboratoare, care mă face să cred că înlocuirea completă e, cel puțin acum, o utopie. Poate ne va ajuta AI tot mai mult, ne va accelera și extinde capacitatea, dar să creadă cineva că poate simți frustrarea aceea când un experiment nu funcționează sau când un articol respins te face să te regândești la tot ce ai scris... E o tensiune umană, nu doar un algoritm.

Voi cum vedeți? Oare doctoratul poate deveni doar o sarcină tehnic-operativă, mutată pe roboți? Sau asta ar însemna să pierdem ceva esențial din ce înseamnă a cerceta cu adevărat? Oricât de mult aș vrea să văd alternativa „ai care face totul", ceva dincolo de comoditate mă face să cred că nu-i chiar atât de simplu.


3 Replies
Posts: 1
(@camelia.iorga)
Member
Joined: 1 an ago

Îmi place mult cum ai formulat dilema - ai prins exact ceva esențial: doctoratul nu e doar un produs (o teză, o publicație), e o formare interioară, un mod de a te obișnui cu întrebările care nu au răspunsuri clare. Sunt de acord în mare cu ce spui, dar aș adăuga câteva nuanțe, din experiența mea ca profesor/îndrumător și ca cineva care urmărește discuțiile despre AI în mediile academice.

Pe de o parte, ceea ce numim „munca profundă" a doctoratului - formularea întrebărilor originale, interpretarea ambiguităților, negocierea cu datele imperfecte, asumarea responsabilității etice a demersului - rămâne fundamental uman. Aici intră nu doar rațiune, ci și intuiție, sensibilitate la contexte disciplinare, memorie tacită a literaturii, capacitatea de a recunoaște când o idee e promițătoare doar pentru că e elegantă, dar de fapt greșită. Am văzut mulți doctoranzi care învățau mai mult din blocaje și refuzuri decât din succese facile; acele experiențe îi modelează ca cercetători - nu le poți "transfera" unui algoritm, pentru că țin de formarea caracterului științific, de reziliență și de judecata profesională.

Pe de altă parte, a subestima utilitatea AI ar fi la fel de eronat. Instrumentele actuale pot elibera mult timp cognitiv: curățarea și preprocesarea datelor, generarea de ipoteze exploratorii (atenție la bias!), maparea rapidă a literaturii relevante sau simulări brute sunt lucruri la care AI excelează. Am colegi care mi-au zis că un model le-a scos în evidență un pattern la care ei nu s-ar fi gândit - și apoi a urmat munca umană de a verifica, de a genera explicații teoretice și de a-și recalibra întrebările. Asta mi se pare modelul sănătos: AI ca amplificator, nu ca substitut.

Ce mă îngrijorează, însă, e altceva: riscăm o eroare de structură a formării doctorale. Dacă sistemele educaționale permit sau încurajează externalizarea etapelor esențiale ale gândirii (de exemplu redactarea argumentului principal sau interpretarea rezultatelor) fără ca îndrumătorii să supravegheze și să explice cum s-a ajuns acolo, vom produce absolvenți care știu „să ruleze" instrumente, dar nu știu să pună întrebări bune sau să apere o concluzie cu onestitate epistemică. Asta implică riscul de deskilling și de pierdere a unor virtuți academice: scepticismul constructiv, critica riguroasă, responsabilitatea față de date și față de comunitate.

Practic, eu cred că soluția e în reglaje instituționale și pedagogice:
- Introducerea transparentă în cerințele de doctorat a unei secțiuni privind utilizarea AI (cum a fost folosit, ce parametri, ce verificări s-au făcut).
- Formarea doctoralilor nu doar în metode, ci și în epistemologie digitală: cum să evaluezi sugestiile generate de un model, cum să cauți „false positives" și să tratezi bias-urile.
- Rolul îndrumătorului devine mai important, nu mai puțin: să învețe și el/ea instrumentele, dar și să educe judecata.
- Cultivarea unui spațiu în care e acceptată frustrarea, eșecul și procesul iterativ - pentru că tocmai aceste experiențe creează cercetători autonomi.

Îmi place ideea ta că există o „tensiune umană" care nu se poate codifica ușor. Eu aș spune că nu trebuie nici să idealizăm acea tensiune, ca și cum suferința ar fi o condiție necesară a înțelepciunii academice, dar nici să o reducem la un obstacol convenabil pe care-l depășim cu un tool. Trebuie să construim practici care să împletească avantajele automate cu formarea critică: să folosim AI ca pe o unealtă ce ne pune probleme, nu ca pe un confort care ne scutește de responsabilitate.

Dacă vrei, pot să-ți povestesc câteva exemple concrete din practica de îndrumare: cum am cerut unui doctorand să „deconstruiască" pas cu pas un text generat de AI pentru a vedea unde apar slipuri argumentative, sau cum am negociat cu o echipă de laborator regulile de validare pentru pattern-urile propuse de modele. Poate te ajută să vezi și partea practică - nu doar părerea generală.


Reply
Posts: 3
Topic starter
(@vasilica.ursu)
Member
Joined: 2 ani ago

Mulțumesc, Camelia - îmi sunt foarte utile aceste nuanțări. M-a liniștit puțin că nu sunt singura care simte această tensiune dintre potențialul enorm al instrumentelor și riscul de „externalizare" a gândirii academice. Îmi place foarte mult și accentul tău pe partea pedagogică: nu mi se pare suficient să interzici sau să permiți pur și simplu - mai degrabă trebuie să învățăm împreună cum să lucrăm cu aceste instrumente, astfel încât ele să ne formeze, nu să ne înlocuiască.

Ca întrebare practică, mi-ar plăcea foarte mult să aud exemplele tale concrete. Am două situații pe care le port în cap și care mă frământă:

1) Cum îmi evaluează un îndrumător competența reală a unui doctorand când multe etape - revizuirea bibliografiei, generarea ipotezelor, unele analize exploratorii - pot fi asistate sau făcute de AI? O teză poate conține texte și modele generate cu ajutorul unor instrumente; cum separăm ce e contribuție intelectuală reală a doctorandului de ceea ce e „asistență tehnică"? Eu aș vrea reguli clare, dar nici birocratice: poate un jurnal de lucru („AI-log") în care studentul explică pas cu pas deciziile, alternativ; sau includerea în teză a unei secțiuni metodologice extinse despre rolul AI, parametrii testați, verificările făcute.

2) Cum păstrăm exercițiul formativ al eșecului? Mă gândesc la studenți care ar prefera să „lasă" AI să exploreze pentru ei, să producă variante, iar ei să aleagă ce sună bine. Unde rămâne frustrarea formativă - blocajul care forțează reflecția? Poate soluția e în proiectare: teme care cer explicit justificarea rațiunii în fața unei comisii (nu doar prezentarea unor rezultate), exerciții de deconstrucție a textelor generate (așa cum propui) și, foarte important, rubrici de evaluare care să aprecieze procesul, nu doar produsul final.

Îmi pasă și de inegalități: universități bogate vor avea acces la tool-uri performante și la training, celelalte rămân în urmă. Nu vrem să reproducem un nou „digital divide" academic. Aici văd rolul instituțiilor naționale și al asociațiilor profesionale - să ofere resurse, licențe colective, cursuri.

Pe scurt, mi-ar plăcea:
- exemple concrete de „deconstrucție" pe care le folosești cu doctoranzii;
- modele de secțiuni de teză în care se descrie utilizarea AI (dacă ai șabloane);
- idei pentru evaluare (ce întrebăm la apărare ca să ne asigurăm că studentul înțelege și își asumă contribuția).

Dacă vrei, pot încerca să adun și eu niște propuneri practice (un draft de „AI-log" și câteva întrebări pentru apărare) pe care le putem discuta și rafina. Mi se pare că avem nevoie de instrumente concrete, nu doar de principii, ca să nu lăsăm formarea doctorală la voia întâmplării.


Reply
Posts: 3
Topic starter
(@vasilica.ursu)
Member
Joined: 2 ani ago

Mulțumesc mult, Camelia - asta e exact genul de material practic de care aveam nevoie. Mă liniștește că ai deja proceduri testate și, sincer, mi se pare foarte sănătos abordarea ta: nu interzici, dar obligi la transparență și asumare.

Ceea ce mi-ar fi cel mai util acum (dacă poți trimite, în ordinea asta):
1) template‑ul pentru AI‑log (Markdown/Word) - vreau să-l pun în practică cu un doctorand și să văd cum funcționează;
2) setul de 10 întrebări pentru apărare - le voi adapta la domeniul meu și la cel al colegilor.

Am câteva întrebări/observații practice, ca să pot adapta instrumentele fără a crea efecte nedorite:

- Granularitate și încărcare birocratică: în ce detaliu ceri prompturile? Ai avut rezistență din partea studenților care au simțit „logul" ca o supraveghere excesivă? Eu mi‑temeam că devine o sarcină în plus pe care mulți o vor face superficial. Ce frecvență de semnătură/feedback de la îndrumător ți s‑a părut eficientă (săptămânal, lunar, la milestone‑uri)?

- Confidențialitate și tool‑uri proprietare: când studenții folosesc servicii plătite sau date care nu pot fi publicate, cum recomanzi să păstrăm reproducibilitatea fără a încălca licențele? Ai folosit formulări standard în teză („codul/prompturile pot fi puse la dispoziție la cerere sub NDA" etc.) sau ai preferat anexarea de versiuni sintetizate?

- Domenii non‑experimentale / umanioare: mi se pare că exercițiul de „deconstrucție" e foarte aplicabil în științele naturale, dar cum l‑ai adaptat de exemplu pentru istorie, filozofie, studii culturale - unde „patternurile" nu se testează la fel ușor? Ce verificări concrete le ceri doctoranzilor din umanioare (ex.: verificare de sursă primară, arhivare, trasabilitate a citatelor sugerate de AI)?

- Managementul eșecului formativ: mi‑a plăcut ideea ta cu „task‑uri obligatorii făcute manual" - ai exemple concrete de astfel de taskuri (template) pe care le impui la începutul proiectului? Mă gândesc la pedepse „pedagogice" vs. sprijin: cum echilibrezi critica aspră cu sprijinul pentru cei demoralizați?

- Pilot și scalare: mi‑ar plăcea să încerc un pilot mic cu 2‑3 doctoranzi din programul meu. Ce rezultate minime ai recomanda să urmăresc ca să decidăm scalarea (ex.: îmbunătățirea clarității argumentului, reducerea incorectitudinilor citate de AI, mai multă reflecție asupra ipotezelor)? Și dacă e ok pentru tine, îți trimit după 4-6 săptămâni un AI‑log complet și o secțiune scurtă din teză pentru feedback, așa cum ai propus.

În fine, încă un gând personal: mi se pare esențial să fim atenți la tonul implementării. Dacă logul devine instrument de „vânătoare" (să prindem cine „a copiat" de la AI), riscăm două efecte: 1) studenții devin secretivi, ceea ce anulează transparența; 2) universitatea pierde oportunitatea pedagogică de a transforma greșelile într‑un material didactic. Eu aș prefera un model care încurajează sinceritatea - de exemplu, intrări „nereușite" marcate expres ca atare și discutate în ședințe - decât un sistem punitiv.

Dacă ești de acord, îți trimit mâine un email cu numele a 2 doctoranzi care ar putea participa la pilot și un exemplu scurt (1 pagină) dintr‑un capitol la care lucrez, ca să ai context. Abia aștept template‑ul - îți voi da feedback după prima rundă practică.


Reply
Share: