Big Data Aspecte filosofice Nicolae Sfetcu 21.06.2019 Sfetcu, Nicolae, "Big Data Aspecte filosofice", SetThings (21 iunie 2019), URL = https://www.setthings.com/ro/big-data-aspecte-filosofice/ Email: nicolae@sfetcu.com Acest articol este licențiat Creative Commons Attribution-NoDerivatives 4.0 International. Pentru a vedea o copie a acestei licențe, vizitați http://creativecommons.org/licenses/by-nd/4.0/. Big Data poate genera, prin inferențe, noi cunoașteri și perspective. Paradigma care rezultă din utilizarea Big Data generează noi oportunități. Un motiv de îngrijorare majoră în cazul Big Data se datorează faptului că oamenii de știință de date tind să lucreze cu date despre subiectele pe care nu le cunosc și cu care nu au fost niciodată în contact, fiind înstrăinați de produsul final al activității lor (aplicarea analizelor). Un studiu recent (Tanner 2014) afirmă că ceasta poate fi motivul unui fenomen cunoscut ca alienarea digitală. Big Data are influențe mari la nivel guvernamental, afectând pozitiv societatea. Aceste sisteme pot fi eficientizate prin aplicarea politicilor de transparență și de guvernare deschisă, precum Open Data. După elaborarea modelelor predictive privind comportamentul audienței țintă, Big Data pot fi utilizate pentru a genera avertizări timpurii pentru diverse situații. Există astfel un feedback pozitiv între cercetare și practică, cu descoperiri rapid preluate de practică. A. Richterich afirmă că popularizarea monitorizării activității utilizatorilor a fost motivată de pretențiile că utilizarea (și colectarea de date cu) aceste dispozitive ar îmbunătăți bunăstarea, sănătatea și speranța de viață a utilizatorilor, și ar reduce semnificativ costurile asistenței medicale. (Richterich, 2018) Pentru a obține consimțământul utilizatorilor, multe firme au oferit reduceri acelor clienți care ar fi dispuși să furnizeze acces la datele lor de monitorizare. (Mearian 2015) Dar există și îngrijorări cu privire la influența acestor tehnologii asupra societății în special în probleme legate de corectitudine, discriminare, intimitate, abuz de date și siguranță. (Collins 2016) Conceptual, Big Data ar trebui înțelese ca un termen umbrelă pentru un set de tehnologii emergente. În utilizarea lor, trebuie să ținem seama de contextele, rețelele, infrastructurile și interdependențele culturale, sociale și tehnologice care pot avea sens asupra Big Data. Termenul de "Big Data" nu se referă doar la datele ca atare, ci și la practicile, infrastructurile, rețelele și politicile care influențează diversele lor manifestări. Înțelegerea datelor mari ca un set de tehnologii emergente pare a fi utilă din punct de vedere conceptual, deoarece cuprinde evoluții digitale activate în colectarea, analiza și utilizarea datelor." (Richterich, 2018) În acest context, Rip descrie dilema evoluțiilor tehnologice: "Pentru tehnologiile emergente cu viitorul lor nedeterminat, există provocarea de a articula valori și reguli corespunzătoare care vor purta greutate. Acest lucru se întâmplă prin articularea promisiunilor și viziunilor despre noile tehnologii [...] " (Rip 2013, 192) Astfel, tehnologiile emergente sunt locuri de" normativitate omniprezentă "caracterizată prin articularea promisiunilor și a temerilor, conceptualizând o astfel de "normativitate omniprezentă" ca o abordare "în spiritul eticii pragmatice, în care pozițiile normative co-evoluează." (Rip 2013, 205) Etica pragmatică subliniază faptul că noile tehnologii se dezvoltă în societățile în care sunt discursiv asociate/disociate de anumite norme și valori. În același timp, pragmatismul afirmă că creșterea numărului mare de date și a practicilor legate de cercetare nu este o simplă chestiune a superiorității tehnologice. Ele formează un câmp de justificare normativă și contestație. Neo-pragmaticii în abordarea eticii abordează cunoașterea epistemologică prin prisma falsificabilității cunoștințelor (științifice), cu evaluări critice ale structurilor puterii sociale. Keulartz et al. au propus o abordare pragmatică a eticii într-o cultură tehnologică (Keulartz et al. 2004) "ca o alternativă care combină punctele forte ale eticii aplicate și studiile științifice și tehnologice, evitând în același timp deficiențele acestor domenii." (Richterich, 2018) Astfel, etica aplicată este o abordare eficientă în ceea ce privește detectarea și exprimarea normativelor implicate în (inter-)acțiunile socio-tehnice sau care rezultă din acțiuni socio-tehnice, dar nu are posibilități în a surprinde normativitatea inerentă și agentul tehnologiilor. (Keulartz et al. 2004, 5) Keulartz et al. consideră că astfel se poate depăși lipsa evaluărilor tehnologice normative: "impasul care a apărut din acest punct de vedere" (adică respectivele "pete oarbe" ale eticii aplicate) poate fi depășit printr-o reevaluare a pragmatismului." (Keulartz et al. 2004, 14) Pragmatismul etic poate fi caracterizat prin trei principii și principii comune: anti-fundaționalism, anti-dualism și anti-scepticism. Anti-fundaționalismul se referă la principiul falsificabilității, considerând că nu putem ajunge la certitudine în ceea ce privește cunoștințele sau valorile ("adevăr final"), dar cunoașterea, ca și valorile și normele, se schimbă în timp. Valorile morale nu sunt statice, ci pot fi renegociate în funcție de evoluțiile tehnologice. Anti-dualismul implică necesitatea de a se abține de la dihotomii predefinite. Printre dualismele criticate de Keulartz sunt esența/aparența, teoria/practica, conștiința/realitatea și faptele/valoarea. Etica aplicată tinde să asume astfel de dualisme ca a priori, spre deosebire de pragmatism care subliniază interrelațiile și liniile neclare dintre astfel de categorii. Anti-scepticismul este strâns legat de nevoia de perspective situate și normativitate explicită, având legătură cu fundația anti-carteziană a pragmatismului. În cercetarea europeană, pragmatismul a fost respins de obicei ca "superficial și oportunist", fiind asociat cu "stereotipuri negative", (Joas 1993) fiind acuzat de "utilitarism și meliorism." (Keulartz et al. 2004, 15) La sfârșitul anilor 1990 și 2000, pragmatismul a cunoscut o revigorare în cercetarea europeană. (Baert and Turner 2004) Analiza Big Data din punct de vedere etic implică două aspecte principale interdependente: unul teoretic (descrierea filosofică a elementelor supuse controlului etic) și o viziune pragmatică (a impactului asupra vieții oamenilor și organizațiilor). (European Economic and Social Committee 2017) Există probleme etice provocate de inteligența artificială, și o strânsă legătură între Big Data și inteligența artificială și derivatele acesteia: învățarea automată, analiza semantică, exploatarea datelor. O abordare a eticii este prin agenția morală cu cel puțin cele trei condiții de cauzalitate, cunoaștere și alegere. Conform lui Noorman: (Noorman 2012) • Există legături cauzale între persoane și rezultatul acțiunilor. Responsabilitatea persoanei derivă din controlul asupra rezultatului. • Subiectul trebuie să fie informat, inclusiv despre posibilele consecințe. • Subiectul trebuie să își dea consimțământul și să acționeze într-un anumit mod. Profesorul Floridi, în A patra revoluție, identifică problema morală a Big Data cu descoperirea unui model simplu: o nouă frontieră a inovării și a concurenței. (Floridi 2014) O altă problemă asociată cu Big Data este riscul de a se descoperi aceste tipare, modificând astfel predicțiile. Regula de bază a eticii Big Data este protecția vieții private, libertatea și puterea discreționară de a decide în mod autonom. De remarcat că există o tensiune continuă între nevoile individuale și cele ale unei comunități. Este posibil să se identifice mai multe probleme etice care derivă din exploatarea Big Data: (European Economic and Social Committee 2017) • Confidențialitatea Limita extremă a confidențialității este seclusia, definită de Alan F. Westin ca "retragerea voluntară a unei persoane din societatea generală prin mijloace fizice într-o stare de singurătate". Moor și Tavani au definit un model de confidențialitate numit Control acces restricționat (RALC) care face diferența între confidențialitate, justificare, și managementul vieții private. • Realitatea adaptată și baloane de filtru Aplicația aflată pe un server colectează informații învățând din acestea, și apoi folosește acele informații pentru a construi un model al intereselor noastre. Când un sistem utilizează aceste modele pentru a filtra informații, e posibil să fim induși să credem că ceea ce vedem este o viziune completă a unui context specific, când de fapt noi suntem limitați de "înțelegerea" unui algoritm care a construit modelul. Efectele etice pot fi multiple: se pot ascunde unele informații impunând prejudecăți de care nu știm, viziunea noastră asupra lumii poate deveni progresiv limitată, iar pe termen lung ar putea genera o favorizare a unui anumit punct de vedere. • Gestionarea ulterioară a datelor după deces Ce se întâmplă cu datele unui utilizator care a decedat? Moștenitorii devin proprietarii acestora? Se pot elimina datele din lumea digitală? Există aici probleme atât juridice cât și tehnologice. • Prejudecăți de algoritm Interpretarea datelor implică, aproape întotdeauna, anumite prejudecăți. În plus, există posibilitatea ca o eroare într-un algoritm să introducă forme de părtinire. O problemă etică este încrederea noastră implicită în algoritmi, cu riscuri mari atunci când nu se iau în considerare riscurile datorită erorilor de programare sau rulare a algoritmilor. • Confidențialitatea vs. creșterea puterii de analiză Se referă la natura emergentă a informațiilor ca la un sistem complex: rezultatul datelor provenite din contexte diferite este mai mult decât suma simplă a părților. • Limitarea scopului Este foarte greu sau chiar imposibil să se limiteze utilizarea datelor. Confidențialitatea nu este un singur element bloc, existând forme subtile de pierdere a vieții private. • Inerția profilului digital al utilizatorilor Aceasta ține de subiectul realității personalizate. Un model care implică interesele unui utilizator se bazează, de obicei, pe comportamentul trecut și pe informațiile din trecut. Astfel, algoritmii nu se bazează pe identitatea actuală a persoanei, ci pe o versiune anterioară. Astfel se va influența comportamentul real utilizatorului, fiind împinși să își mențină interesele vechi și deci să nu poată descoperi alte oportunități. Dacă utilizatorul nu este conștient de această problemă, influența inerției va fi mult mai mare. • Radicalizarea utilizatorilor, conformismul și sectarismul Big Data poate forma opinii folosind algoritmi de filtrare/recomandare, informații, articole și postări personalizate, și recomandări specifice de prieteni. Astfel, utilizatorii vor fi din ce în ce mai mult în contact cu oamenii, opiniile și faptele care vor susține poziția lor inițială. Această tendință este, de multe ori, ascunsă utilizatorilor sistemelor bazate pe Big Data, existând tendința dezvoltării unor prejudecăți, mergând de la conformism până la radicalizare. Se poate postula formarea unui fel de subconștient tehnologic cu impact asupra dezvoltării personalității utilizatorilor, fenomene evidente în cazul rețelelor sociale, unde distanța dintre lumea reală ("fizică") și Internet este puternic atenuată. • Impact asupra capacităților personale și a libertății • Drepturi egale între proprietarul datelor și exploatatorul de date De obicei persoana ale cărei date sunt utilizate nu este proprietarul legal al acestora. De aceea, o cerință minimă este ca acea persoană să aibă acces la propriile date, permițându-i să le descarce și eventual să le șteargă. Bibliografie Baert, Patrick, and Bryan Turner. 2004. "New Pragmatism and Old Europe: Introduction to the Debate between Pragmatist Philosophy and European Social and Political Theory." European Journal of Social Theory 7 (3): 267–74. https://doi.org/10.1177/1368431004044193. Collins, Tom. 2016. "Security Fears Sparked over Wearable Technology." Mail Online. December 19, 2016. http://www.dailymail.co.uk/~/article-4049154/index.html. European Economic and Social Committee. 2017. "The Ethics of Big Data: Balancing Economic Benefits and Ethical Questions of Big Data in the EU Policy Context." European Economic and Social Committee. February 22, 2017. https://www.eesc.europa.eu/en/ourwork/publications-other-work/publications/ethics-big-data. Floridi, Luciano. 2014. The Fourth Revolution: How the Infosphere Is Reshaping Human Reality. OUP Oxford. Joas, Hans. 1993. Pragmatism and Social Theory. University of Chicago Press. Keulartz, Jozef, Maartje Schermer, Michiel Korthals, and Tsjalling Swierstra. 2004. "Ethics in Technological Culture: A Programmatic Proposal for a Pragmatist Approach." Science, Technology, & Human Values 29 (1): 3–29. https://doi.org/10.1177/0162243903259188. Mearian, Lucas. 2015. "Insurance Company Now Offers Discounts -If You Let It Track Your Fitbit." Computerworld. April 17, 2015. https://www.computerworld.com/article/2911594/insurance-company-now-offersdiscounts-if-you-let-it-track-your-fitbit.html. Noorman, Merel. 2012. "Computing and Moral Responsibility." Stanford Encyclopedia of Philosophy. Richterich, A. 2018. "The Big Data Agenda: Data Ethics and Critical Data Studies." https://doi.org/10.16997/book14.b. Rip, Arie. 2013. "Pervasive Normativity and Emerging Technologies." In Ethics on the Laboratory Floor, edited by Simone van der Burg and Tsjalling Swierstra, 191–212. London: Palgrave Macmillan UK. https://doi.org/10.1057/9781137002938_11. Tanner, Adam. 2014. "Different Customers, Different Prices, Thanks To Big Data." Forbes. 2014. https://www.forbes.com/sites/adamtanner/2014/03/26/different-customersdifferent-prices-thanks-to-big-data/.