image_pdfVersione PDFimage_printStampa

Una sfida per la ChiesaDi Antonio Spadaro e Paul Towmey*

I poveri in un mondo dominato dai «big data»

Nell’era dell’intelligenza artificiale (IA) l’esperienza umana sta cambiando profondamente, ben più di quanto la stragrande maggioranza della popolazione mondiale riesca a vedere e a comprendere. La vera e propria esplosione dell’IA ha un forte impatto sui nostri diritti nel presente e sulle nostre opportunità future, determinando processi decisionali che, in una società moderna, riguardano tutti. Si rivela un enorme cambiamento tecnologico, che prospetta grandi benefìci e rischi insidiosi. La proporzione in cui rischi e benefici si presenteranno dipenderà dai pionieri e dai creatori di questa tecnologia, e in particolare da quanto sarà chiara la loro visione del bene comune e corretta la loro comprensione della natura dell’esperienza umana[1].

Bisogna capire che l’intelligenza artificiale rappresenta una sfida e un’opportunità anche per la Chiesa: è una questione di giustizia sociale. Infatti, la ricerca pressante, avida e non trasparente dei big data, cioè dei dati necessari ad alimentare i motori di apprendimento automatico[2] può portare alla manipolazione e allo sfruttamento dei poveri: «I poveri del XXI secolo sono, al pari di chi non ha denaro, coloro che, in un mondo basato sui dati e sulle informazioni, sono ignoranti, ingenui e sfruttati»[3]. Inoltre, gli stessi scopi per i quali vengono addestrati i sistemi di IA possono portarli a interagire in forme imprevedibili per garantire che i poveri vengano controllati, sorvegliati e manipolati.

Attualmente i creatori di sistemi di IA sono sempre più gli arbitri della verità per i consumatori. Ma al tempo stesso le sfide filosofiche essenziali – la comprensione della verità, la conoscenza e l’etica – si fanno incandescenti man mano che le possibilità dell’IA crescono verso e oltre il superamento dei limiti cognitivi umani[4]. Nel contesto dei progressi del XXI secolo, l’esperienza e la formazione della Chiesa dovrebbero essere un dono essenziale offerto ai popoli per aiutarli a formulare un criterio che renda capaci di controllare l’IA, piuttosto che esserne controllati.

La Chiesa è chiamata anche alla riflessione e all’impegno. Nelle arene politiche ed economiche in cui viene promossa l’IA devono trovare spazio le considerazioni spirituali ed etiche. Soprattutto, nel XXI secolo l’IA è una disciplina e una comunità assetata di evangelizzazione. La Chiesa deve impegnarsi a informare e ispirare i cuori di molte migliaia di persone coinvolte nella creazione e nell’elaborazione dei sistemi di intelligenza artificiale. In ultima analisi, sono le decisioni etiche a determinare e a inquadrare quali problemi affronterà un sistema di IA, come esso vada programmato e come debbano essere raccolti i dati per alimentare l’apprendimento automatico. Sul codice che viene scritto oggi si baseranno i futuri sistemi di IA per molti anni a venire.

Possiamo leggere la sfida di quella che potremmo definire l’«evangelizzazione dell’IA» come una combinazione tra la raccomandazione di papa Francesco a guardare il mondo dalla periferia e l’esperienza dei gesuiti del XVI secolo, il cui metodo pragmatico di influenzare chi è influente oggi si potrebbe riformulare come condividere il discernimento con gli scienziati dei dati.

Che cosa è l’intelligenza artificiale?

La definizione e il sogno dell’IA ci accompagnano da oltre sessant’anni. Essa è la capacità di un computer, o di un robot controllato da un computer, di eseguire attività comunemente associate agli esseri intelligenti, quali quelle di ragionare, scoprire significati, generalizzare o imparare dalle esperienze passate.

Il lungo sviluppo dell’IA è passato attraverso l’evoluzione della riflessione su come le macchine possono apprendere, accompagnata tuttavia dal recente e radicale miglioramento della capacità di calcolo. L’IA è stata la prima idea, alla quale hanno fatto seguito l’apprendimento automatico e, più recentemente, le reti neurali e l’apprendimento profondo.

…per proseguire nella lettura dell’articolo, vai alla pagina originale sul sito La Civiltà Cattolica

***

*Paul Twomey è uno dei fondatori della Internet Corporation for Assigned Names and Numbers (Icann).

Copyright © 2020 – La Civiltà Cattolica

***

[1].      Cfr G. Cucci, «Per un umanesimo digitale», in Civ. Catt. 2020 I 27-40.

[2].      I big data, o in italiano «megadati», indicano una raccolta di dati talmente estesa da richiedere tecnologie e metodi analitici specifici per l’estrazione di valore o conoscenza e la scoperta di legami tra fenomeni diversi e la previsione di quelli futuri.

[3].      M. Kelly – P. Twomey, «I “big data” e le sfide etiche», in Civ. Catt. 2018 II 446.

[4].      Cfr A. Spadaro – T. Banchoff, «Intelligenza artificiale e persona umana. Prospettive cinesi e occidentali», in Civ. Catt. 2019 II 432-443.

[5].      Cfr J. Angwin – J. Larson – S. Mattu – L. Kirchner, «Machine Bias», in ProPublica, 23 maggio 2016 (www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing).

[6].      M. Purdy – P. Daugherty, Why Artificial Intelligence is the Future of Growth (www.accenture.com/us-en/insight-artificial-intelligence-future-growth).

[7].      Cfr C. B. Frey – M. A. Osborne, «The Future of Employment: How Susceptible Are Jobs to Computerisation?», in Technological Forecasting and Social Change 114 (2017) 254-280.

[8]  .    Cfr McKinsey Global Institute, «Jobs Lost, Jobs Gained: Workforce Transitions in a Time of Automation» (in www.mckinsey.com).

[9]  .    Cfr le argomentazioni in S. Lohr, «A.I. Will Transform the Economy. But How Much, and How Soon?», in The New York Times, 30 novembre 2017.

[10].    Per esempio, i media hanno sottolineato il netto pregiudizio razziale riscontrato nell’uso giudiziario di algoritmi di condanna da parte di molti tribunali statunitensi. Cfr R. Wexler, «When a Computer Program Keeps You in Jail», ivi, 13 giugno 2017.

[11].    Cfr J. Obar – B. McPhail, «Preventing Big Data Discrimination in Canada: Addressing Design, Consent and Sovereignty Challenges», Wellington, Centre for International Governance Innovation, 2018 (www.cigionline.org/articles/preventing-big-data-discrimination-canada-addressing-design-consent-and-sovereignty).

[12].    V. Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, New York, St Martin’s Press, 2018, 11.

[13].    Ivi.

[14].    Cfr L. Jaume-Palasí – M. Spielkamp, «Ethics and algorithmic processes for decision making and decision support», in AlgorithmWatch Working Paper, n. 2, 6-7 (algorithmwatch.org/en/publication/ethics-and-algorithmic-processes-for-decision-making-and-decision-support).

[15].    Cfr M. Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Milano, Raffaello Cortina, 2017.

[16].    R. Cellan-Jones, «Stephen Hawking Warns Artificial Intelligence Could End Mankind», in BBC News (www.bbc.com/news/technology-30290540), 2 dicembre 2014.

[17].    Cfr Top 10 Principles for Workers’ Data Privacy and Protection, UNI Global Union, Nyon, Switzerland, 2018.

[18].    Cfr Microsoft, The Future Computed, Redmond, 2017 (news.microsoft.com/cloudforgood/_media/downloads/the-future-computed-english.pdf).

[19].    Oecd Principles on AI (www.oecd.org/going-digital/ai/principles), giugno 2019.

[20].    Cfr European Commission, Ethics guidelines for trustworthy AI (ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai), 8 aprile 2019.

[21].    Cfr G20 Ministerial Statement on Trade and Digital Economy (www.mofa.go.jp/files/000486596.pdf), giugno 2019.

[22].    Una ricerca di Pew Charitable Trusts ha dimostrato che gli algoritmi dell’IA vengono compilati in primo luogo per ottimizzare l’efficienza e la redditività, considerando gli esseri umani un mero input del processo, piuttosto che vederli come esseri reali, senzienti, sensibili e mutevoli. Ne risulta una società alterata, condizionata dalla logica degli algoritmi. Per contrastare tale percezione e i conseguenti rischi di parzialità nell’IA, si rivela fondamentale l’impegno per ciò che riguarda la definizione delle finalità e per la raccolta e l’utilizzo dei dati. Come afferma l’esperto di etica Thilo Hagendorff: «Le caselle di controllo da spuntare non devono essere gli unici “strumenti” dell’etica dell’IA. È necessaria una transizione […] verso un criterio etico sensibile alle situazioni sulla base delle virtù e delle disposizioni personali, dell’espansione delle conoscenze, dell’autonomia responsabile e della libertà d’azione» (T. Hagendorff, «The Ethics of AI Ethics – An Evaluation of Guidelines» [arxiv.org/abs/1903.03425], 28 febbraio 2019).

image_pdfVersione PDFimage_printStampa