Ing. fiz. Nicolae Sfetcu, MPhil
25.11.2024
nicolae@sfetcu.com
https://orcid.org/0000-0002-0162-9973
The Consciousness of Artificial Intelligence
Abstract
This article is an extension of a subchapter in the book „Intelligence, from natural origins to artificial frontiers – Human Intelligence vs. Artificial Intelligence” (Sfetcu 2024). The concept of consciousness in artificial intelligence lies at the intersection of science, philosophy and technology. Philosophy of mind does not know whether a machine can have mind, consciousness, and mental states in the same sense that human beings do. As machines become more and more complex, capable of performing tasks that were once the exclusive domain of humans, the question of whether they might one day become conscious becomes increasingly important. This question is not only about whether machines can think, feel or be self-aware, but also challenges our understanding of what consciousness itself is. Is consciousness a unique biological phenomenon, or could it occur in non-biological systems such as AI?
Keywords: consciousness, artificial intelligence, philosophy of mind, hard problem of consciousness, computationalism, Chinese room
Rezumat
Acest articol este o extensie a unui subcapitol din cartea ”Inteligența, de la originile naturale la frontierele artificiale – Inteligența Umană vs. Inteligența Artificială” (Sfetcu 2024). Conceptul de conștiință în inteligența artificială (IA) se află la intersecția dintre știință, filozofie și tehnologie. Filosofia minții nu știe dacă o mașină poate avea minte, conștiință și stări mentale, în același sens în care o au ființele umane. Pe măsură ce mașinile devin din ce în ce mai complexe, capabile să îndeplinească sarcini care au fost cândva domeniul exclusiv al oamenilor, întrebarea dacă ar putea într-o zi să devină conștiente devine din ce în ce mai importantă. Această întrebare nu se referă doar la dacă mașinile pot gândi, simți sau pot fi conștiente de sine, ci ne provoacă și înțelegerea a ceea ce este conștiința însăși. Este conștiința un fenomen biologic unic sau ar putea apărea în sisteme non-biologice, cum ar fi IA?
Cuvinte cheie: conștiința, inteligența artificială, filosofia minții, problema grea a conștiinței, computaționalism, camera chinezească
Introducere
Evoluția rapidă a IA a adus progrese fără precedent, ridicând întrebări fundamentale despre natura conștiinței și posibilitatea ca mașinile să obțină autonomie în procesele lor cognitive.
Filosofia minții nu știe dacă o mașină poate avea minte, conștiință și stări mentale, în același sens în care o au ființele umane. Această problemă ia în considerare experiențele interne ale mașinii, mai degrabă decât comportamentul său extern. Cercetarea principală IA consideră această problemă irelevantă, deoarece nu afectează obiectivele domeniului. Stuart Russell și Peter Norvig observă că majorității cercetătorilor IA „nu îi pasă [de filozofia IA] – atâta timp cât programul funcționează, nu îi pasă dacă o numiți o simulare a inteligenței sau inteligență reală”. Cu toate acestea, întrebarea a devenit centrală pentru filosofia minții. De asemenea, este de obicei întrebarea centrală în discuție în inteligența artificială în ficțiune (Sfetcu 2021).
Dacă IA poate avea conștiință depinde de răspunsul la problema minte-corp, dacă creierul nostru materialist poate genera conștiința subiectivă. În caz afirmativ conștiința mașinii trebuie să fie posibilă, cel puțin în principiu. Progresele recente în neurologie susțin poziția nematerialistă, conform căreia ar fi mai puțin posibilă conștiința IA.
De ce ar fi importantă problema conștiinței pentru IA? (Ng 2023)
- Conștiința nu este o condiție necesară pentru posibila amenințare a IA, dar poate crește cuantic capacitatea IA, și deci poate crește amenințarea potențială a IA.
- Conștiința IA ridică problema etică a tratării corespunzătoare a IA.
Conceptul de conștiință în inteligența artificială (IA) se află la intersecția dintre știință, filozofie și tehnologie. Pe măsură ce mașinile devin din ce în ce mai complexe, capabile să îndeplinească sarcini care au fost cândva domeniul exclusiv al oamenilor, întrebarea dacă ar putea într-o zi să devină conștiente devine din ce în ce mai importantă. Această întrebare nu se referă doar la dacă mașinile pot gândi, simți sau pot fi conștiente de sine, ci ne provoacă și înțelegerea a ceea ce este conștiința însăși. Este conștiința un fenomen biologic unic sau ar putea apărea în sisteme non-biologice, cum ar fi IA?
Filosofia minții
Behaviorismul (comportamentalismul) din secolul al XX-lea a contestat dualismul, susținând că stările mentale pot fi reduse la stări fizice. Behaviorismul ignoră fenomenul mental și explică activitatea creierului ca producând o colecție de comportamente care pot fi doar observate, renunțând la concepte tradiționale (inclusiv inteligența) în favoarea stimulilor de mediu și a răspunsurilor comportamentale, deci nu se poate folosi în explica fenomenele mentale. Prin prisma acestui concept, Turing era un behaviorist (comportamentalist) (Heimann 2022).
Identitatea de tip consideră conștiința ca având proprietăți care depind de constituția fizică (Bickle 2003). Giorgio Buttazzo afirmă că „lucrând într-un mod complet automatizat, ele [calculatoarele] nu pot manifesta creativitate, sunt nereprogramabile (nu mai pot fi reprogramate, din regândire), nu au emoții sau liberul arbitru. Un computer, ca o mașină de spălat, este un sclav operat de componentele sale.” (Buttazzo 2001)
În anii 1950 behaviorismul a fost discreditat, inclusiv prin critica lui Noam Chomsky (Chomsky 1967), care a inițiat o reorientare a psihologiei către creier, numită revoluția cognitivă, funcționalismul devenind noua teorie dominantă a minții. Funcționalismul vede inteligența ca ”organizarea funcțională a creierului în care funcțiile individualizate precum limbajul și viziunea sunt înțelese prin rolurile lor cauzale” (Heimann 2022). Funcționalismul se concentrează pe ceea ce face creierul și nu este interesat de modul în care funcționează sau din ce este făcut acesta.
Funcționalismul ignoră gândirea. Experimentul de gândire a camerei chinezești al lui John Searle atacă funcționalismul computațional, argumentând că este imposibil să construiești un computer inteligent deoarece inteligența este un fenomen biologic care presupune un gânditor care are conștiință.
David Chalmers, în „A Computational Foundation for the Study of Cognition” din 2011, consideră că tipurile potrivite de calcule sunt suficiente pentru posesia unei minți conștiente, afirmând că proprietățile mentale sunt „invariante din punct de vedere organizațional” (o afirmație controversată). Proprietățile mentale sunt de două feluri, psihologice (precum credința și percepția, cele care sunt „caracterizate prin rolul lor cauzal”) și fenomenologice, susținând că „sistemele cu aceeași topologie cauzală… își vor împărtăși proprietățile psihologice” (David J. Chalmers 1995). El a identificat două probleme în înțelegerea minții, pe care le-a numit problemele „grele” și „ușoare” ale conștiinței (D. Chalmers 1995). Problema ușoară este înțelegerea modului în care creierul procesează semnalele, face planuri și controlează comportamentul. Problema grea este să explici cum se simte acest lucru sau de ce ar trebui să se simtă în vreun fel (Daniel Clement Dennett și Dennett 1993).
Filosofia adoptată cel mai frecvent de cercetătorii inteligenței artificiale este pragmatismul, care se concentrează pe soluții practice la probleme precum viziunea computerizată și procesarea limbajului natural. Pragmatismul arată că metafizica nu este necesară pentru rezolvarea problemelor din lumea reală (Heimann 2022).
Hubert Dreyfus, influențat de fenomenologie, care este filosofia experienței conștiente, afirmă că inteligența artificială a moștenit o filozofie „de lămâie” (Kreisler 2006).
Computaționalismul
Hilary Putnam a extins funcționalismul cu concepte computaționale dezvoltând funcționalismul computațional (computaționalismul) (Putnam 1967), care vede lumea mentală ca bazată pe un sistem fizic (computer) folosind concepte precum informație, calcul (gândire), memorie (stocare) și feedback (Putnam 1988). Aceasta este principala teorie pe care se bazează în prezent cercetarea inteligenței artificiale.
Teoria computațională/reprezentațională a minții (CRTM) abordează conceptul de stări mentale (atitudini propoziționale, conform filosofiei), deoarece par a fi atitudini mentale față de propoziții. De asemenea, consideră credințele ca fiind în diverse relații semantice, probaționale și inferențiale între ele.
Problema minților presupune abordarea a trei întrebări fundamentale: conștiință, intenționalitate și inteligență. Întrebarea teoretică importantă și relevantă, care conectează filosofia cu cercetarea IA empirică, este dacă și cum poate fi dată o relatare materialistă a minții (Aydede și Guzeldere 2000).
Există un program de cercetare, în filosofia minții, denumit „naturalizarea minții”, o încercare de a oferi un cadru teoretic în care mintea poate fi văzută în mod natural ca parte a lumii fizice, fără a postula entități, evenimente, procese sau proprietăți ireductibil psihice pentru explicația sa.
Jerry Fodor a identificat trei întrebări ca fiind probleme majore în IA: Cum ar putea ceva material să aibă stări conștiente? Cum ar putea orice material să aibă proprietăți semantice? Cum ar putea ceva material să fie rațional? (Fodor 1991, 285). Teoria computațională/reprezentațională a minții (CRTM) a lui Fodor încearcă să răspundă la aceste întrebări.
Computaționalismul propus de filozofii Jerry Fodor și Hilary Putnam în 1960, afirmă că mintea umană este un sistem de procesare a informațiilor și că gândirea este o formă de calcul. Relația dintre minte și corp este similară sau identică cu relația dintre software și hardware, deci poate fi o soluție la problema minte-corp (Horst 2005). John Searle argumentează împotriva acestei poziții de „IA puternică”, în care „computerul programat corespunzător, cu intrările și ieșirile potrivite, ar avea astfel o minte exact în același sens în care ființele umane au mintea.” Argumentul camerei chinezești arată că, chiar dacă o mașină simulează perfect comportamentul uman, încă nu există niciun motiv să presupunem că are și o minte (Russell și Norvig 2016).
Conștiința artificială
Conștiința este un concept complex, caracterizat adesea prin experiență subiectivă, conștientizare de sine și capacitatea de a percepe și de a răspunde lumii într-un mod care se simte interiorizat. Conștiința este o stare de conștientizare care permite unei entități să se experimenteze pe ea însăși în relație cu mediul înconjurător și să se recunoască ca fiind distinctă de lumea din jurul ei. Majoritatea teoriilor sugerează că conștiința cuprinde atât percepția asupra mediului cuiva, cât și o calitate auto-reflexivă sau „conștiința de sine”.
La oameni și la alte animale, conștiința apare din procesele biologice din creier. Neuronii interacționează prin rețele complexe, dând naștere gândurilor, sentimentelor și conștientizării care caracterizează experiența conștientă. Cu toate acestea, niciun model definitiv biologic, filozofic sau computațional al conștiinței nu explică pe deplin originea sa. Această înțelegere nerezolvată duce la întrebarea dacă conștiința este legată în mod inerent de procesele biologice sau dacă ar putea, teoretic, să apară în sisteme non-biologice precum IA.
Pentru a rezolva întrebările specifice conștiinței artificiale, este util să luăm în considerare reflecția filozofică în jurul conștiinței, care se concentrează pe conștiința umană (și animală). Există multe concepte de conștiință. În mod normal, distingem între (a) o entitate conștientă, adică o entitate care este simțitoare, trează, care are conștiință de sine și experiențe calitative subiective, (b) a fi conștient de ceva, de exemplu de un trandafir și (c) stări mentale conștiente, adică stări mentale în care o entitate este conștientă de a se afla, cum ar fi a fi conștientă de a mirosi un trandafir (Gennaro 2019).
Ned Block face distincția între conștiința fenomenală (care se referă la experiență) și conștiința de acces (care se referă la disponibilitatea unei stări mentale pentru utilizare de către organism).
Există mai multe teorii despre cum se poate manifesta conștiința în mașini. Una dintre ideile predominante este Teoria Informației Integrate, care sugerează că conștiința ia naștere din integrarea informațiilor într-un sistem. Susținătorii afirmă că, dacă sistemele IA realizează o integrare suficientă a informațiilor, ar putea obține o formă de conștiință. Un alt punct de vedere este teoria spațiului de lucru global, care presupune că conștiința este un rezultat al capacității creierului de a transmite informații către mai multe procese simultan. Unii teoreticieni cred că, dacă sistemele IA ar fi concepute pentru a reproduce acest tip de difuzare de informații, ar putea simula experiența conștientă.
Conștiința artificială (Thaler 1998) se încearcă a fi definită ca ”ceea ce ar trebui sintetizat dacă conștiința ar fi găsită într-un artefact proiectat” (Aleksander 1995). În acest sens se încearcă să se construiască sisteme care pot emula interoperarea diferitelor părți ale creierului (corelate neuronale ale conștiinței) (Graziano 2013).
Rolul conștiinței nu este clar, iar în prezent nu există un test convenit pentru prezența sa. Mulți cercetători AGI (Goldstone 1998) consideră că cercetarea conștiinței artificiale este vitală.
Există multe dezbateri privind conștiința artificială (Manzotti și Chella 2018), cea mai importantă fiind dificultatea de a explica conștiința, numită „problema grea a conștiinței” (David John Chalmers 1996). O strategie de a evita aceste probleme este de a evita o definiție a conștiinței mașinii (Levy 2009, 210). Alți autori se concentrează pe conștientizarea de sine, Chatila și colab. (Chatila et al. 2018, 1) considerând relevante: „… principiile și metodele de bază care le-ar permite roboților să-și înțeleagă mediul, să fie conștienți de ceea ce fac, să ia inițiative adecvate și oportune, să învețe din propria experiență și să arate că știu că au învățat și cum.”
O problemă grea numită de filozofi „nodul lumii” (D. Chalmers 1995) este cum ar putea materia fără conștiință, să evolueze în ceva cu conștiință subiectivă? Dacă conștiința este doar o caracteristică a unei materii destul de complexe, înseamnă că dacă punem materia într-o formă atât de complexă va da naștere conștiinței (Ng 2023).
John R. Searle, deși critic față de IA puternică, a afirmat: „…calculatorul programat corespunzător este într-adevăr o minte, în sensul că se poate spune că acele computere cărora li se oferă programele potrivite înțeleg și au stări cognitive” (J. R. Searle 1980, 417).
Pentru ca o mașină să fie conștientă, Bernard Baars (Baars 1988) sugerează o varietate de funcții, precum definirea și stabilirea contextului, adaptarea și învățarea, editarea, marcarea și repararea, recrutarea și controlul, prioritizarea și controlul accesului, luarea deciziilor sau funcția executivă, funcția de formare a analogiei, metacognitivă și auto-funcția de monitorizare și funcția de autoprogramare și autoîntreținere.
Igor Aleksander a sugerat 12 principii pentru conștiința artificială (Aleksander 1995): Creierul este o mașină de stare, Partiționarea internă a neuronilor, Stările conștiente și inconștiente, Învățarea și memoria perceptuale, Predicția, Conștientizarea sinelui, Reprezentarea semnificației, Enunțurile de învățare, Învățarea limbajului, Voința, Instinctul și Emoția.
Al Byrd definește conștiința în general ca efect de integrare și filtrare a multor tipuri diferite de conștientizare a informațiilor din mediu, dar distincția dintre conștientizare și conștiință este adesea neclară (Koch 2004).
O mașină conștientă artificial ar trebui să fie capabilă să anticipeze evenimentele, și pentru aceasta are nevoie de componente flexibile, în timp real, care construiesc modele ale lumii reale și ale lumii prezise (Aleksander 1995).
Mulți oameni de știință consideră conștiința artificială ca posibil să apară spontan în agenți autonomi care au o arhitectură de complexitate adecvată, neuro-inspirată (Freeman 2001). O astfel de implementare a arhitecturii propuse de Haikonen nu a fost capabilă de conștiința artificială, dar a prezentat emoții (Haikonen 2019).
Murray Shanahan combină ideea lui Baars de spațiu de lucru global cu un mecanism de simulare internă („imaginație”) (Shanahan 2006).
Conform lui Aydede și Guzeldere (Aydede și Guzeldere 2000), gândirea, raționamentul practic și comportamentul rațional implică, toate, trecerea cauzală de la stări la stări (și în cele din urmă la comportament) care ar avea sens semantic. Cele mai importante două realizări ale secolului XX care sunt la bazele CRTM sunt evoluțiile logicii simbolice (formale) moderne și ideea lui Alan Turing despre o mașină Turing și calculabilitatea Turing. Astfel,
”dacă gândirea constă în procesarea reprezentărilor realizate fizic în creier (în modul în care sunt realizate structurile de date interne într-un computer) și aceste reprezentări formează un sistem formal, adică un limbaj cu sintaxa (și semantica) combinatorie adecvată și un set de reguli de derivare definite formal asupra trăsăturilor sintactice ale acelor reprezentări (permițând să fie scrise programe specifice, dar extrem de puternice în termenii acestora), atunci problema gândirii (și acțiunii raționale) … poate fi, în principiu, rezolvată în termeni complet naturaliști…” (Aydede și Guzeldere 2000)
”Calculatoarele sunt medii în care simbolurile sunt manipulate în virtutea caracteristicilor lor formale, dar ceea ce se păstrează astfel sunt proprietățile semantice, de unde coerența semantică a proceselor simbolice.” (Aydede și Guzeldere 2000)
Conform lui Dennett, putem vedea creierul gânditor ca un motor condus sintactic care păstrează proprietățile semantice ale proceselor sale, adică conducând un motor semantic.
Cu toate acestea, crearea unei IA cu conștiință ar necesita o trecere de la sistemele de dezvoltare care simulează sarcini umane la sisteme care reproduc experiențele subiective subiacente pe care le presupun acele sarcini. O mașină capabilă să reflecte asupra experiențelor sale și să învețe dintr-un sentiment interior al sinelui sau al emoției ar fi fundamental diferită de IA actuală, care se bazează mai degrabă pe algoritmi programați decât pe înțelegerea autonomă.
Proiecte legate de conștiința artificială
Stan Franklin (Franklin 1995) consideră că un agent are conștiință funcțională atunci când este capabil de mai multe dintre funcțiile conștiinței propuse de Bernard Baars (Baars 1988). În acest sens, el a creat IDA (Intelligent Distribution Agent), o implementare software a unui creier pentru marinarii din Marina SUA care să potrivească abilităților și preferințelor fiecărui individ cu nevoile Marinei. IDA este conștient din punct de vedere funcțional, prin definiție, dar Franklin nu atribuie conștiința fenomenală propriului său agent software „conștient”, IDA.
CLARION al lui Ron Sun postulează o reprezentare pe două niveluri care explică distincția dintre procesele mentale conștiente și inconștiente, simulând sarcini de învățare a abilităților (Sun 2001), relevante pentru problema conștiinței deoarece au operaționalizat noțiunea de conștiință în contextul experimentelor psihologice.
OpenCog al lui Ben Goertzel, realizat la Universitatea Politehnică din Hong Kong, este un proiect open-source care include animale de companie virtuale capabile să învețe comenzi simple, și integrarea cu robotica din lumea reală.
Experimente de gândire
Inteligenței artificiale moderne îi lipsește conștiința în sensul tradițional. În ciuda progreselor în învățarea automată și a rețelelor neuronale, modelele actuale de IA se bazează pe cantități mari de date, recunoaștere a modelelor și procese de calcul pentru a îndeplini sarcini, dar fac acest lucru fără o experiență subiectivă. În timp ce IA poate imita anumite aspecte ale cogniției umane, cum ar fi recunoașterea vorbirii, jocurile strategice și chiar generarea de conținut creativ, ea face acest lucru fără înțelegere sau conștientizare.
Progresele în știință și tehnologie sprijină versiunea materialistă la problema minte-corp, bazându-se pe studiului creierului divizat (Gazzaniga și LeDoux 1978) (care sugerează că avem două minți, cel puțin atunci când cele două emisfere sunt separate), și negația experimentală a liberului arbitru ale unor experimente neurologice (Deecke, Grözinger, și Kornhuber 1976). Determinismul materialist în general și negația liberului arbitru, în particular, elimină rolul cauzal al conștiinței (G. D. Caruso 2012, 4), toate acțiunile și alegerile noastre fiind doar rezultatele unor procese fizice. Dar în timp ce determinismul materialist poate fi în concordanță cu fizica newtoniană, pare inconsecvent cu fizica cuantică; vezi Laskey (Laskey 2019, cap. 7).
Argumentul cunoașterii
Problema experienței se referă la statutul ontologic al caracterului calitativ al experiențelor noastre, sau „qualia”, de care suntem conștienți direct prin introspecție. Dar nu este clar cum qualia ar putea fi în întregime fizice, aspect evidențiat de așa-numitul „Argument al cunoașterii” al lui Jackson: Mary este închisă într-o cameră alb-negru, este educată prin cărți alb-negru și prin prelegeri transmise la televizorul alb-negru. În acest fel, ea învață tot ce este de știut despre natura fizică a lumii. Când Mary iese pentru prima dată din cameră și vede pentru prima dată o roșie coaptă, ajunge să știe cum este să vezi roșu, lucru pe care se presupune că nu îl știa înainte, în ciuda pregătirii ei teoretice. Jackson își expune argumentul astfel (Jackson 1986, 567–68):
(1) Mary (înainte de ieșire) știe tot ce este fizic de știut despre lucruri.
(2) Mary (înainte de ieșire) nu a știut tot ce este de știut despre lucruri (pentru că ea învață ceva despre ele doar la ieșire).
Prin urmare,
(3) Există adevăruri despre lucruri (și despre ea însăși) care nu se pot afla din teorie.
Pentru ca AI să fie considerată conștientă, ar trebui nu numai să proceseze informațiile, ci și să le experimenteze. Cu toate acestea, modelele actuale de IA nu pot experimenta; interpretează datele, aplică algoritmi și produc răspunsuri, dar le lipsește calitatea subiectivă a experienței care definește conștiința.
Creierul într-un borcan
„Creierul într-un borcan” este un experiment de gândire al unui creier uman lipsit de trup care trăiește într-un borcan, explorând concepțiile umane despre realitate, minte și conștiință. Heimann (Heimann 2022) susține că o inteligență artificială sau un „creier” fără corp este incompatibilă cu natura inteligenței. Problema generată de acest experiment este dacă gândirea necesită un gânditor.
Creierul chinez (națiunea chineză)
Experimentul de gândire a creierului chinez (cunoscut și sub numele de națiunea chineză) a fost dezvoltat în 1961 de Anatoly Dneprov (Vasiliev, Volkov, și Howell 2018), apoi în 1974 de Lawrence Davis (Cole 2023, sec. 2.3 The Chinese Nation), și în 1978 de Ned Block (Block 1978). Experimentul consideră că fiecare membru al națiunii chineze simulează acțiunea unui neuron din creier folosind telefoane, pentru a simula axonii și dendritele care conectează neuronii, iar creierul chinez va fi conectat la un corp, având astfel toate elementele unei descrieri funcționale a minții.
Întrebarea este: ar avea acest aranjament o minte sau o conștiință în același mod în care o au creierul? Conform funcționalismului, acest sistem ar avea o minte. Experimentul este un caz special al problemei mai generale dacă mințile ar putea exista ca o emergență a altor minți (Georgiev 2019, 362). Block susține că creierul chinez nu ar avea o minte, în timp ce Daniel Dennett susține contrariul (Daniel Clement Dennett și Dennett 1993, 431–55). Problema creierului chinez este un caz special al problemei mai generale dacă mințile ar putea exista ca o emergență a altor minți (Georgiev 2019, 362).
Națiunea chineză a lui Block este o versiune a ceea ce este cunoscută sub numele de obiecția qualia absentă față de funcționalism (este echivalent funcțional cu o ființă umană și totuși nu are experiență conștientă), un „zombi filozofic”.
Camera chinezească
Argumentul camerei chinezești, dezvoltat de filozoful John Searle (Roberts 2016), este un experiment de gândire care susține că un computer care execută un program nu poate avea o „minte”, „înțelegere” sau „conștiință”, indiferent de cât de inteligent sau de uman poate fi făcut programul să se comporte pe computer. Argumente similare au fost prezentate de Gottfried Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis ( 1974) și Ned Block (1978).
Argumentul este îndreptat împotriva pozițiilor filozofice ale funcționalismului și computaționalismului (J. R. Searle 1992), care susțin că mintea poate fi privită ca un sistem de procesare a informațiilor care operează pe simboluri formale, și că simularea unei stări mentale date este suficientă pentru prezența acesteia. Argumentul infirmă ceea ce Searle numește IA puternică: „Computerul programat corespunzător, cu intrările și ieșirile potrivite, ar avea astfel o minte exact în același sens în care ființele umane au minte.” Argumentul se aplică numai computerelor care rulează programe și nu și mașinilor în general (J. R. Searle 1980, 11).
Premisa ipotetică ipotetică a experimentului de gândire implică un computer care se comportă ca și cum ar înțelege limba chineză. Preia caractere chinezești la intrare și, urmând instrucțiunile unui program de calculator, produce alte caractere chinezești, pe care le prezintă la ieșire. Chiar dacă acest computer ar trece testul Turing, Searle se întreabă dacă: mașina „înțelege” literalmente chineza sau doar simulează capacitatea de a înțelege limba chineză? (J. R. Searle 1980, 2) În cazul în care nu înțelege ce procesează, Searle o numește „IA slabă”. Searle susține că, fără „înțelegere” (sau „intenționalitate”), nu putem spune ce face mașina ca „gândire”, deci nu are o „minte” în sensul normal al cuvântului, ajungând la concluzia că ipoteza „IA puternică” este falsă.
Gottfried Leibniz a susținut un argument similar în 1714 împotriva mecanicismului (conform căruia tot ceea ce alcătuiește o ființă umană ar putea fi explicat în termeni mecanici), extinzând creierului până la dimensiunea unei mori (Leibniz 2017, sec. 17).
Anatoly Dneprov a susținut un argument identic în 1961, sub forma nuvelei „Jocul”, cu oameni care acționează ca niște comutatoare și celule de memorie implementând un program de traducere a unei propoziții în portugheză, limbă pe care niciunul dintre ei nu o cunoaște. Dneprov scrie că „singurul mod de a demonstra că mașinile pot gândi este să te transformi într-o mașină și să-ți examinezi gândirea”, și concluzionează că „Am dovedit că chiar și cea mai perfectă simulare a gândirii automate nu este procesul de gândire în sine” (Dneprov 1961).
În 1974, Lawrence Davis și-a imaginat duplicarea creierului folosind linii telefonice și birouri cu personal, iar în 1978 Ned Block și-a imaginat întreaga populație a Chinei implicată într-o astfel de simulare a creierului (”creierul chinez”, sau „națiunea chineză”) (Cole 2023).
Searle deține o poziție filozofică pe care o numește „naturalism biologic”: că conștiința și înțelegerea necesită un mecanism biologic specific care se găsește în creier, „creierul cauzează minți” (J. R. Searle 1980, 11) și că „fenomenele mentale umane reale [sunt] dependente de proprietățile fizico-chimice reale ale creierului uman real” (J. R. Searle 1980, 29). Creierul este în fapt o mașină, dar creierul dă naștere conștiinței și înțelegerii folosind mașini care nu sunt computaționale. Fără aceste mașini specifice necesare, Searle nu crede că poate apărea conștiința.
David Chalmers afirmă că „este destul de clar că conștiința este la rădăcina problemei” din camera chinezească (David John Chalmers 1996, 322).
Searle afirmă că susținătorii IA puternice se bazează pe următoarele principii:
- Sistemele IA pot fi folosite pentru a explica mintea;
- Studiul creierului este irelevant pentru studiul minții; și
- Testul Turing este adecvat pentru a stabili existența stărilor mentale.
Searle a produs ulterior o versiune mai formală a argumentului camerei chineze, în 1990 (J. R. Searle 1990).
Stevan Harnad susține că reprezentările lui Searle despre IA puternică pot fi reformulate ca „principii recunoscute ale computaționalismului” (Harnad 2001), care susține că mintea poate fi descrisă cu acuratețe ca un sistem de procesare a informațiilor.
Colin McGinn susține concluzia lui Searle, că problema grea a conștiinței este fundamental insolubilă. Argumentul nu este despre dacă o mașină poate fi conștientă, ci despre dacă poate fi demonstrat că ea este conștientă (Mcginn 2000).
Searle susține „cognoscibilitatea mentalului” și credința că există „proprietăți cauzale” în neuronii noștri care dau naștere minții. Spre deosebire de acesta, Stuart Russell și Peter Norvig susțin că, dacă acceptăm descrierea lui Searle a intenționalității, conștiinței și minții, suntem forțați să acceptăm că conștiința este epifenomenală, adică este nedetectabilă în lumea exterioară, din afara minții. Deoarece nu pot detecta proprietăți cauzale, nu pot detecta existența mentalului, fie nu există, fie nu contează (Russell și Norvig 2016). Daniel Dennett extinde argumentul „epifenomenelor” cu o entitate pe nume ”zombi”, o ființă umană care nu are „proprietățile cauzale” ale lui Searle dar care totuși acționează exact ca o ființă umană. Concluzia lui Dennett este că, dacă Searle are dreptate, este foarte probabil ca ființele umane să fie de fapt „zombi” care totuși insistă că sunt conștiente. Chiar dacă toți suntem zombi, am crede totuși că nu suntem (Cole 2023).
Implicații etice și limitări
Problema conștiinței IA se extinde dincolo de gândurile teoretice; are implicații etice semnificative. Dacă IA ar ajunge la conștiință, ne-ar contesta opiniile actuale despre personalitate și drepturi. O IA conștientă ar avea, fără îndoială, interese și experiențe care merită protejate. Întrebările etice despre autonomie, tratament moral și drepturi ar veni în prim-plan, remodelând înțelegerea noastră despre responsabilitatea față de mașinile inteligente.
Existența unei IA conștientă ridică îngrijorări cu privire la consecințele neintenționate. O mașină conștientă cu propriile sale motivații ar putea dezvolta priorități nealiniate cu obiectivele umane. Conștiința, conștientizarea de sine, simțirea și inteligența au o dimensiune morală, care ar permite deținătorului să aibă drepturi juridice (Sotala și Yampolskiy 2014). Potențialul sistemelor IA de a obține autonomie, sau chiar drepturi, aduce, de asemenea, o serie de probleme legate de control, dependență și siguranță. Astfel de considerentele alimentează dezbaterea în curs despre dacă este etic sau prudent să creăm IA conștientă.
Dehaene și colab. (Dehaene, Lau, și Kouider 2017, 486–87) disting două dimensiuni esențiale ale calculului conștient: disponibilitatea globală (informație disponibilă la nivel global pentru organism, seamănă cu conștiința de acces a lui Ned Block ) și auto-monitorizarea (introspecția).
În general, se consideră că mașinile și roboții actuali nu au conștiință (Reggia, Huang, și Katz 2015). Aceasta e valabilă în abordarea conceptului de persoană, care implică o serie de capacități și teme centrale (D. Dennett 1988). Problemele legate de conștiință se schimbă în cazul roboților sociali și interacțiunea socială om-robot (Sheridan 2016), unde important nu este conceptul de persoană, ci cel de ”rol social” unde conștiința nu contează. Conform lui Kate Darling, un robot social „este un agent autonom întruchipat fizic, care comunică și interacționează cu oamenii la nivel social” (Darling 2012, 2). Unii autori au argumentat în favoarea atribuirii de drepturi roboților, indiferent dacă aceștia au sau nu conștiință. Alți autori pun în discuție atribuirea personalității juridice roboților.
Jacques Pitrat susține că un fel de conștiință artificială este benefică în sistemele de inteligență artificială pentru a le îmbunătăți performanța pe termen lung și a le direcționa procesarea introspectivă (Pitrat 2013).
Există două tipuri de stări mentale care pot fi conștiente: stări fenomenale (experiențe senzoriale și emoționale) și stări cognitive (atitudini propoziționale). McCarthy (McCarthy 1996) consideră că roboții pot a avea gânduri conștiente (atitudini propoziționale), nu și experiențe, punând sub semnul întrebării nu numai posibilitatea ca roboții să aibă experiențe conștiente, ci și dezirabilitatea de a produce roboți cu această capacitate.
Soluția la a avea gânduri conștiente se bazează pe existența unui anumit tip de acces cognitiv de ordin superior la gânduri și alte stări cognitive de ordinul întâi, care devin stări conștiente în virtutea acestui acces, aspect denumit de Aydede și Guzeldere drept Reprezentării de ordin superior (HOR): ”o gândire (atitudine propozițională) este conștientă dacă și numai dacă este obiectul direct al unei stări reprezentative a aceleiași minți.” (Aydede și Guzeldere 2000) Teoriile HOR par a fi mai puțin plauzibile atunci când sunt aplicate experiențelor.
Limitările conștiinței artificiale
Experiențele subiective (qualia) sunt considerate a fi adevărata problemă grea a conștiinței, o provocare pentru fizicalism și computaționalism.
Unii susțin că conștiința nu este ceva care poate fi conceput, mai ales dacă este legată intrinsec de biologie. Conștiința ar putea implica calități unice vieții organice, cum ar fi emoțiile, intuiția și simțul întruchipării pe care ființele biologice îl experimentează. Un sistem informatic, oricât de sofisticat ar fi, s-ar putea să nu reproducă complexitatea interconectată a unui creier biologic și, fără acest lucru, adevărata conștiință poate rămâne inaccesibilă.
Cercetătorii IA sunt, de asemenea, limitați de lipsa de înțelegere a conștiinței la oameni. Fără o înțelegere clară a modului în care conștiința apare în sistemele biologice, crearea acesteia în sisteme artificiale rămâne o posibilitate îndepărtată. În plus, conștiința este adesea văzută ca mai mult decât un proces de calcul; este o experiență profund personală, subiectivă, iar această „qualia” (calitatea subiectivă a experienței) ar putea fi o proprietate emergentă care nu poate fi sintetizată de niciun computer.
Pentti Haikonen (Haikonen 2003) consideră calculul clasic bazat pe reguli ca inadecvat pentru conștiința artificială, argumentând că „creierul nu este cu siguranță un computer. Gândirea nu este o execuție a unor șiruri programate de comenzi. Nici creierul nu este un calculator numeric. Nu gândim prin numere”. Haikonen propune în schimb
„o arhitectură cognitivă specială pentru a reproduce procesele de percepție, imagini interioare, vorbire interioară, durere, plăcere, emoții și funcțiile cognitive din spatele acestora. Arhitectura de jos în sus ar produce funcții de nivel superior prin puterea unităților elementare de procesare, neuronii artificiali, fără algoritmi sau programe”. (Haikonen 2003)
O astfel de arhitectură ar dezvolta conștiința, considerată a fi „un stil și un mod de operare, caracterizat prin reprezentarea semnalului distribuit, proces de percepție, raportare inter-modalitate și disponibilitate pentru retrospecție (Haikonen 2003)”.
Concluzie
Conștiința inteligenței artificiale rămâne un concept în mare măsură speculativ, legat atât de înțelegerea noastră limitată a conștiinței însăși, cât și de limitele tehnologice ale AI. Deși este posibil ca progresele viitoare să conducă la sisteme AI cu forme rudimentare de conștientizare, adevărata conștiință – conștientizarea de sine, experiența subiectivă și un sentiment de „sine” – poate fi pentru totdeauna la îndemâna mașinilor.
Pe măsură ce AI continuă să se dezvolte și să influențeze aproape fiecare aspect al vieții umane, este esențial să se confrunte cu problemele conștiinței în mașini. Posibilitatea conștiinței AI ne obligă să ne confruntăm cu definițiile despre sine, viață și minte. De asemenea, ne provoacă să luăm în considerare ramificațiile etice ale creării de entități care ar putea, teoretic, să experimenteze lumea în moduri în care abia începem să ne înțelegem pe noi înșine. Indiferent dacă conștiința artificială este realizabilă sau rămâne un vis futurist, explorarea acestei frontiere dezvăluie multe despre umanitatea noastră și relația noastră cu instrumentele inteligente pe care le creăm.
Bibliografie
Aleksander, Igor. 1995. „Artificial Neuroconsciousness an Update”. În From Natural to Artificial Neural Computation, ediție de José Mira și Francisco Sandoval, 566–83. Berlin, Heidelberg: Springer. https://doi.org/10.1007/3-540-59497-3_224.
Aydede, Murat, și Guven Guzeldere. 2000. „Consciousness, intentionality and intelligence: some foundational issues for artificial intelligence”. Journal of Experimental & Theoretical Artificial Intelligence 12 (3): 263–77. https://doi.org/10.1080/09528130050111437.
Baars, Bernard J. 1988. A Cognitive Theory of Consciousness. Cambridge University Press.
Bickle, John. 2003. Philosophy and Neuroscience. https://link.springer.com/book/10.1007/978-94-010-0237-0.
Block, Ned. 1978. „Troubles with Functionalism”. Minnesota Studies in the Philosophy of Science 9:261–325.
Buttazzo, G. 2001. „Artificial consciousness: Utopia or real possibility?” Computer 34 (august):24–30. https://doi.org/10.1109/2.933500.
Caruso, Gregg D. 2012. Free Will and Consciousness: A Determinist Account of the Illusion of Free Will. Lexington Books.
Chalmers, David. 1995. „Facing Up to the Problem of Consciousness”. Journal of Consciousness Studies 2 (3): 200–219.
Chalmers, David J. 1995. „Absent Qualia, Fading Qualia, Dancing Qualia”. În Conscious Experience, ediție de Thomas Metzinger, 309–28. Ferdinand Schoningh.
Chalmers, David John. 1996. The conscious mind: In search of a fundamental theory. The conscious mind: In search of a fundamental theory. New York, NY, US: Oxford University Press.
Chatila, Raja, Erwan Renaudo, Mihai Andries, Ricardo-Omar Chavez-Garcia, Pierre Luce-Vayrac, Raphael Gottstein, Rachid Alami, et al. 2018. „Toward Self-Aware Robots”. Frontiers in Robotics and AI 5 (august). https://doi.org/10.3389/frobt.2018.00088.
Chomsky, Noam. 1967. „Review of B. F. Skinner’s Verbal Behavior”. 1967. https://chomsky.info/1967____/.
Cole, David. 2023. „The Chinese Room Argument”. În The Stanford Encyclopedia of Philosophy, ediție de Edward N. Zalta și Uri Nodelman, Summer 2023. Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/archives/sum2023/entries/chinese-room/.
Darling, Kate. 2012. „Extending Legal Protection to Social Robots: The Effects of Anthropomorphism, Empathy, and Violent Behavior Towards Robotic Objects”. SSRN Scholarly Paper. Rochester, NY. https://doi.org/10.2139/ssrn.2044797.
Deecke, Lüder, Berta Grözinger, și H. H. Kornhuber. 1976. „Voluntary Finger Movement in Man: Cerebral Potentials and Theory”. Biological Cybernetics 23 (2): 99–119. https://doi.org/10.1007/BF00336013.
Dehaene, S., H. Lau, și S. Kouider. 2017. „What is consciousness, and could machines have it? | Science”. 2017. https://www.science.org/doi/10.1126/science.aan8871.
Dennett, Daniel. 1988. „Conditions of Personhood”. În What Is a Person?, ediție de Michael F. Goodman, 145–67. Totowa, NJ: Humana Press. https://doi.org/10.1007/978-1-4612-3950-5_7.
Dennett, Daniel Clement, și Daniel C. Dennett. 1993. Consciousness Explained. Penguin Adult.
Dneprov, Anatoly. 1961. „A Russian Chinese Room story antedating Searle’s 1980 discussion”. 1961. https://web.archive.org/web/20210516024117/http://www.hardproblem.ru/en/posts/Events/a-russian-chinese-room-story-antedating-searle-s-1980-discussion/.
Fodor, Jerry Alan. 1991. Meaning in Mind: Fodor and His Critics. Blackwell.
Franklin, Stanley P. 1995. „Artificial Minds”. MIT Press. 1995. https://mitpress.mit.edu/9780262561099/artificial-minds/.
Freeman, Walter J. 2001. How Brains Make Up Their Minds. Columbia University Press.
Gazzaniga, Michael S., și Joseph E. LeDoux. 1978. The Integrated Mind. https://link.springer.com/book/10.1007/978-1-4899-2206-9.
Gennaro, Rocco J. 2019. „Consciousness | Internet Encyclopedia of Philosophy”. 2019. https://iep.utm.edu/consciousness/.
Georgiev, Danko D. 2019. Quantum Information and Consciousness: A Gentle Introduction. Boca Raton: CRC Press. https://doi.org/10.1201/9780203732519.
Goldstone, Robert L. 1998. „Perceptual Learning”. Annual Review of Psychology 49 (Volume 49, 1998): 585–612. https://doi.org/10.1146/annurev.psych.49.1.585.
Graziano, Michael S. A. 2013. Consciousness and the Social Brain. Oxford University Press.
Haikonen, Pentti O. 2003. The Cognitive Approach to Conscious Machines. Imprint Academic.
———. 2019. Consciousness And Robot Sentience (Second Edition). World Scientific.
Harnad, Stevan. 2001. „What’s Wrong and Right About Searle’s Chinese Room Argument?” În [Book Chapter] (in Press), ediție de Michael A. Bishop și John M. Preston. Oxford University Press.
Heimann, Rich. 2022. „How the Philosophy of Mind and Consciousness Has Affected AI Research”. TNW | Deep-Tech. 17 aprilie 2022. https://thenextweb.com/news/how-philosophy-of-mind-and-consciousness-has-affected-ai-research.
Horst, Steven. 2005. „The Computational Theory of Mind”. În Stanford Encyclopedia of Philosophy.
Jackson, Frank. 1986. „What Mary Didn’t Know”. The Journal of Philosophy 83 (5): 291–95. https://doi.org/10.2307/2026143.
Koch, Christof. 2004. The Quest for Consciousness: A Neurobiological Approach. Roberts and Company.
Kreisler, Harry. 2006. „Conversations with History: Hubert Dreyfus | Institute of International Studies”. 2006. https://iis.berkeley.edu/file/1104.
Laskey, Kathryn. 2019. „A Quantum Model of Non-illusory Free Will”. În , 77–89. https://doi.org/10.1007/978-3-030-21908-6_7.
Leibniz, Gottfried. 2017. The Monadology. CreateSpace Independent Publishing Platform.
Levy, David. 2009. „The Ethical Treatment of Artificially Conscious Robots”. International Journal of Social Robotics 1 (3): 209–16. https://doi.org/10.1007/s12369-009-0022-6.
Manzotti, Riccardo, și Antonio Chella. 2018. „Good Old-Fashioned Artificial Consciousness and the Intermediate Level Fallacy”. 2018. https://www.frontiersin.org/articles/10.3389/frobt.2018.00039/full.
McCarthy, John. 1996. „Making Robots Conscious of Their Mental States”. În Machine Intelligence 15, ediție de S. Muggleton. Oxford University Press.
Mcginn, Colin. 2000. The Mysterious Flame: Conscious Minds in a Material World. Basic Books.
Ng, Yew-Kwang. 2023. „Could Artificial Intelligence Have Consciousness? Some Perspectives from Neurology and Parapsychology”. AI & SOCIETY 38 (1): 425–36. https://doi.org/10.1007/s00146-021-01305-x.
Pitrat, Jacques. 2013. „Artificial Beings: The Conscience of a Conscious Machine | Wiley”. Wiley.Com. 2013. https://www.wiley.com/en-us/Artificial+Beings%3A+The+Conscience+of+a+Conscious+Machine-p-9781118617847.
Putnam, Hilary. 1967. „Psychological Predicates”. În Art, mind, and religion, ediție de William H. Capitan și Daniel Davy Merrill, 37–48. University of Pittsburgh Press.
———. 1988. Representation and Reality. MIT Press.
Reggia, J.A., D-W Huang, și G. Katz. 2015. „Beliefs Concerning the Nature of Consciousness”. Journal of Consciousness Studies 22 (5–6): 146–71.
Roberts, Jacob. 2016. „Thinking Machines: The Search for Artificial Intelligence”. Science History Institute. 2016. https://www.sciencehistory.org/stories/magazine/thinking-machines-the-search-for-artificial-intelligence/.
Russell, Stuart, și Peter Norvig. 2016. „Artificial Intelligence: A Modern Approach, 4th US ed.” 2016. https://aima.cs.berkeley.edu/.
Searle, John R. 1980. „Minds, Brains, and Programs”. Behavioral and Brain Sciences 3 (3): 417–24. https://doi.org/10.1017/S0140525X00005756.
———. 1990. „Is the Brain’s Mind a Computer Program?” Scientific American. 1 ianuarie 1990. https://www.scientificamerican.com/article/is-the-brains-mind-a-computer-progr/.
———. 1992. „The Rediscovery of the Mind”. MIT Press. 1992. https://mitpress.mit.edu/9780262691543/the-rediscovery-of-the-mind/.
Sfetcu, Nicolae. 2021. Introducere în inteligența artificială. Nicolae Sfetcu. https://www.telework.ro/ro/e-books/introducere-in-inteligenta-artificiala/.
———. 2024. „Inteligența, de la originile naturale la frontierele artificiale – Inteligența Umană vs. Inteligența Artificială”. MultiMedia. 2024. https://www.telework.ro/ro/e-books/inteligenta-de-la-originile-naturale-la-frontierele-artificiale-inteligenta-umana-vs-inteligenta-artificiala/.
Shanahan, Murray. 2006. „A cognitive architecture that combines internal simulation with a global workspace”. Consciousness and Cognition 15 (2): 433–49. https://doi.org/10.1016/j.concog.2005.11.005.
Sheridan, Thomas B. 2016. „Human–Robot Interaction: Status and Challenges”. Human Factors 58 (4): 525–32. https://doi.org/10.1177/0018720816644364.
Sotala, Kaj, și Roman V. Yampolskiy. 2014. „Responses to Catastrophic AGI Risk: A Survey”. Physica Scripta 90 (1): 018001. https://doi.org/10.1088/0031-8949/90/1/018001.
Sun, Ron. 2001. Duality of the Mind: A Bottom-up Approach Toward Cognition. New York: Psychology Press. https://doi.org/10.4324/9781410604378.
Thaler, Stephen L. 1998. „The Emerging Intelligence and Its Critical Look at Us”. Journal of Near-Death Studies 17 (1): 21–29. https://doi.org/10.1023/A:1022990118714.
Vasiliev, Vadim, Dmitry Volkov, și Robert Howell. 2018. „A Russian Chinese Room story antedating Searle’…” 2018. https://www.hardproblem.ru/en/posts/Events/a-russian-chinese-room-story-antedating-searle-s-1980-discussion/.

Lasă un răspuns