Storia dell'articolo
Chiudi

Questo articolo è stato pubblicato il 14 maggio 2013 alle ore 08:39.

My24

È giusto sacrificare gli affetti famigliari per difendere il proprio Paese in caso di guerra? È immorale nutrirsi della carne di animali uccisi? E se il tuo migliore amico ruba un pacchetto di sigarette e viene beccato, lo coprirai mentendo oppure è tuo dovere dire sempre la verità? Sono solo alcuni esempi di dubbi morali con cui l'uomo è alle prese dalla notte dei tempi. L'unico modo per risolverli è sempre stato quello di lasciarsi guidare dalla propria razionalità, sensibilità e idea di giustizia: consapevoli che spesso le scelte possono risultare sbagliate. Ora immagina che esista un'app per il tuo smartphone, di nome Google Morals. Una sorta di Google Maps per l'etica: proprio come per la prima basta inserire un indirizzo e seguire le indicazioni, così per la seconda è sufficiente inserire una domanda riguardo a un comportamento. Dunque: devo aiutare il mio amico e mentire oppure denunciarlo? Click, ed ecco la risposta. La morale in outsourcing.

Questo è l'esperimento mentale immaginato l'anno scorso dal filosofo Robert J. Howell. In un articolo pubblicato sulla rivista Noûs – dal titolo Google Morals, Virtue, and the Asymmetry of Deference – Howell pone una domanda quanto mai cruciale: è accettabile deferire a un algoritmo le nostre scelte in campo etico? Lo scenario dà al problema una sfumatura di urgenza: un futuro prossimo in cui un'applicazione ci suggerisca come comportarci anche dal punto di vista morale (e non solo ci aiuti a seguire una dieta, ci informi sul tempo e ci inviti a rispettare le scadenze) non è certo impensabile. In un certo senso è solo un riflesso di quello che il brillante analista della Rete Evgeny Morozov chiama "soluzionismo" e critica nel suo recentissimo To Save Everything, Click Here: la pretesa che la tecnologia possa sempre trovare una risposta ai nostri problemi.

Howell attacca la questione proprio lungo questa linea, sottolineando l'asimmetria che c'è fra il deferire questioni di carattere morale e farlo con tutte le altre: come si annoda una cravatta, qual è la strada più veloce per arrivare a Torino da Pavia, cos'è un polimero eccetera. Di per sé, l'atto di delegare è comunissimo. Ogni giorno ci affidiamo a degli esperti — e a Google — per risolvere problemi di cui non abbiamo la minima conoscenza: dall'elettrauto a Wikipedia. Ma a quanto pare, non siamo disposti a fare altrettanto con pretesi "professionisti dell'etica": Chiediamo spesso consiglio e conforto ad amici, confidenti e persino a preti o guru, ma pretendiamo che la decisione definitiva spetti a noi: figuriamoci a un'app. L'abisso della scelta in un campo così delicato, da sempre, appartiene al singolo. Ma il quadro può essere complicato ulteriormente. Supponiamo che Google, con la sua instancabile raccolta di informazioni, sia arrivata a creare un'applicazione del tutto infallibile e non hackerabile: il calcolatore etico perfetto. Supponiamo inoltre che ci sia lasciata la piena libertà di affidarci o meno a essa, senza che Mountain View o i nostri genitori o qualsiasi autorità ci costringa. La domanda cruciale a questo punto è semplicemente: perché non farlo? Se grazie a Morals possiamo fare sempre del bene, perché non fare sempre del bene? Potrebbe anche essere un'affermazione di umiltà: dopotutto, che ne so io di tutte le implicazioni possibili di un gesto, come posso essere certo di non agire in base alle passioni del momento, o a pregiudizi troppo radicati? Se una macchina può darmi una risposta corretta, tanto meglio per l'umanità: dopotutto l'abbiamo creata noi.

Eppure, nonostante questa ulteriore precisazione, sentiamo che c'è comunque qualcosa di sbagliato, anche se non è facile comprendere cosa. Perché ci fidiamo degli esperti quando si tratta di problemi estremamente delicati – costruire un ponte o farsi operare al fegato – ma ci sembra sospetto fare altrettanto con le scelte di natura etica?
La risposta di Howell è che la nostra moralità svanirebbe nel preciso momento in cui la deferiamo a Google Morals. Il gesto stesso di sottometterci a un algoritmo ci distrugge in quanto esseri capaci di scelta. Come scrive il filosofo, noi «ammiriamo chi agisce in modo giusto non semplicemente perché genera buone azioni, ma perché tali azioni riflettono le sue virtù»: le qualità che riteniamo connesse al retto agire – generosità, compassione, eccetera – si riflettono nel modo in cui una persona si pone, e non nella semplice somma delle sue azioni. In altri termini: obbedendo ciecamente ai dettami del mio smartphone potrò compiere sempre del bene, ma non sarò mai in grado di saperlo – né dunque di comunicarlo, di educare altri a esso, e in fondo nemmeno di apprezzarlo. Sarà sempre e soltanto una "risposta giusta", come la soluzione casuale a un problema matematico di cui non capisco niente: non farà parte di un sistema normativo cui appartengo e nel quale credo. Ma ciò che rende un comportamento buono o cattivo è anche la misura in cui siamo in grado di intenderlo come tale. Di accettare quella sfida che Iris Murdoch definiva «il compito di apprendere una realtà magnetica ma inesauribile» quale è appunto il bene.

Il sogno di Morals è affascinante ma molto pericoloso, perché rivela un enorme disinteresse nei confronti del mondo: significa cancellare ogni grado di difficoltà (o addirittura, aggiungerei, di tragedia) nelle nostre scelte. Fare la scelta giusta richiede dubbio, fatica e impegno personale. Senza l'intuizione primitiva che provocare sofferenza gratuita è sbagliato, saremmo semplici automi, non esseri morali. Un automa non sbaglia, così come Google Morals non sbaglia, ma perché non ha scelta: e senza scelta, come sappiamo almeno dalla caduta di Lucifero, non c'è autentica morale. Senza contare problemi più pratici, ma non meno urgenti. Come risponderemmo ai perché dei nostri figli, a colpi di ricerche su Morals? E se un giorno l'app non funzionasse, a chi potremmo affidarci, visto che nessuno più sarà in grado di dire cos'è giusto o sbagliato?

Commenta la notizia

Ultimi di sezione

Shopping24

Dai nostri archivi