Prof.univ.dr. Adrian Lesenciuc
Academia Forțelor Aeriene „Henri Coandă”
Abstract: Inteligența artificială, ajunsă la faza AI 2.0 (Yunhe, 2016) grație în special dezvoltării studiului algortmilor statistici și, implicit, a rețelelor neuronale artificiale necesare în procesul de machine learning, presupune adaptarea continuă la mediul informațional în ansamblu. De altfel, dezvoltarea AI e generată de cerințele de cercetare-dezvoltare și de nevoia de răspuns optimal la mediul informațional în schimbare, în acord cu scopurile sociale (Yunhue, 2016:410), dar și cu cele politice sau culturale ale societății și, implict, contribuie la dinamica mediului informaționa în ansamblu. Schimbarea mediului informațional atrage după sine dezvoltarea AI și, în consecință, dezvoltarea rețelelor informaționale înțelese ca human-machine hybrid-augmented intelligence. În esență, dinamica mediului informațional nu se rezumă la dinamica dimensiunii informaționale ca atare, ori a dimensiunii fizice, adică a canalelor (în termeni comunicaționali) prin care circulă informația, ci, în primul rând, la dinamica dimensiunii cognitive a mediului informațional, în care, pe paliere diferite ale modelului cognitiv ierarhic, adică în managementul informaților, transmiterea cunoașterii și crearea înțelegerii împărtășite, respectiv în luarea deciziilor (JCOIE, 2018:12), poate fi afectată de fluxul informațional minim necesar procesului decizional. Privind în dinamica acestor condiționări, există câteva surse de viciere generate de AI. Prima dintre ele are legătură directă cu procesul de generalizare prin intermediul căruia algoritmii statistici crează instrucțiuni pentru a putea construi rețeaua neuronală artificială. Al doilea este cel privitor la selecția umană a eșantioanelor pe care se aplică algortmii statistici pentru a produce învățarea și, mai ales, în selecția principiilor în baza cărora se produce filtrarea de informații. Ambele produc erori de viciere a adevărului similar celor care funcționează în cazul prejudecății, stereotipiei și discriminării și ambele lasă amprente ideologice, intenționate sau nu, asupra modului în care inteliența artificială operează. Prezentul articol își propune să trateze formele de viciere a adevărului prin procesul de machine learning specific AI.
Bibliografie selectivă:
Joint Chiefs of Staff. (2018, 25 July). Joint Concept for Operating in the Informational Environment (JCOIE). Washington, DC: United States Department of Defense (DoD).
Katz, Yarden. (2020). Artificial Whiteness. Politics and Ideology in Artificial Intelligence. New York: Columbia University Press.
Vessa, Miko & Tienari, Janne. (2020). Artificial intelligence and rationalized unaccountability: Ideology of the elites? Organization. Vol.29, no.6. https://doi.org/10.1177/135050842096387.
Yunhe Pan. (2016). Heading toward Artificial Intelligence 2.0 Engineering. No.2. 409-413.
Lasă un răspuns