“Le invio il mio avatar per le misure, va bene?” Dati e privacy in atelier
|
“Ci vediamo domani alle 10 per l’ultima prova allora?”
“Non posso proprio domani, ma le invio il mio avatar per le misure, va bene?”
“Ancora meglio, abbiamo ormai il software per trasferire tutti i dati al nostro sistema di cucitura”.
Il dialogo potrebbe essere fra qualche tempo pratica corrente in un qualsiasi negozio di abbigliamento.
Cominciano infatti a moltiplicarsi gli atelier degli avatar personali. L’ultimo lo ha aperto a Milano Billy Berlusconi, nipote del più noto, al momento, Silvio.
Si tratta di un centro per la realizzazione di avatar che riproducono, in tutto e per tutto, le fattezze e le misure del titolare. Un altro centro simile è già in attività a Torino, e se ne annunciano anche a Roma.
La promozione del prodotto, che il nuovo Berlusconi che scende in campo annuncia, e al quale, se buon sangue non mente, non mancheranno certo le risorse pubblicitarie, oltre che finanziarie, parla di un vero gemello che ci sostituisce in incombenze fastidiose, come appunto misurarsi un abito, oppure andare dal personal trainer per farsi prescrivere esercizi. Sembrerebbe, a prima vista il solito giochetto per ricchi annoiati. Definizione che qualche decennio fa veniva usata in generale per Internet, e successivamente, per i social. Poi abbiamo visto dove siamo arrivati.
Ora siamo dinanzi ad un fenomeno che già fu annunciato circa 10 anni fa, con quella moda, allora passeggera, di SecondLife. Qualcuno ricorderà: la piattaforma dove si ricreavano condizioni di vita comunitaria reale per mezzo di pupazzetti che impersonavano i singoli utenti. Si cominciava a parlare di duplicazione di se stessi, di dare forma ai sogni o alle ambizioni, ricreando personalità e attività. Qualcuno riuscì anche a guadagnarci qualcosa speculando sulla frenesia di rendere il proprio avatar attraente e brillante, dotandolo di un personal designer, di un arredatore della propria casa e di accompagnatori o accompagnatrici suggestive, per non dire direttamente eccitanti.
Quella forma di fuga da se stessi durò un paio d’anni e si spense naturalmente, sostituita da una più ampia, inclusiva e omologante corsa ai social.
Ma, come sempre, ogni tendenza ormai nel sistema virtuale si modifica, anzi, si ri-media, come direbbero Grusin e Bolter, i due teorici della combinazione continua di linguaggi e valori nella società dell’informazione. I processi non si esauriscono, ma si innestano in tendenze più complesse. La sensoristica, intrecciata a una potenza di calcolo che sta riproducendo funzioni umane, come voce, memorie e correlazioni, ad alta fedeltà, ci ripropone l’obbiettivo di una nostra riproduzione.
Infatti, anche sulla scorta della società distanziata, che la pandemia ci sta imponendo, con le pratiche di massa di smart working e di e Learning, la disponibilità di veri avatar che, in sicurezza per noi, rendono più dirette e fluide le relazioni sociali che non possiamo gestire in presenza, sta ormai imponendosi come necessità diffusa. In questo contesto si pone il tema di una modularità dell’avatar, che per rispondere fedelmente alle nostre perfette dimensioni e misure, dove evolversi con noi, rimanendo in contatto con gli indicatori della nostra personalità, sia fisica che psicologica. In sostanza, se vogliamo usufruire di un servizio efficiente e duraturo, dovremmo trasferire all’avatar i nostri dati socio biologici. In modo da poterlo usare in permanenza, adattandolo a varie evenienze. A questo punto diventano due i temi che ci interrogano: da una parte quale fenomeno potranno attivare gli avatar di noi tutti interagendo fra di loro? Che società si potrebbe creare accanto alla nostra, con questi gemelli che ci rappresentano? Si arriverebbe ad una sorta di Blade Runner in scala minore, dove avatar e originali si mischiano in diverse forme di relazione, come appunto attività subalterne o ancora integrative o, di nuovi svaghi, o, infine di svaghi di sempre, come l’industria del sesso non maccherebbe di proporre, e in questo forse già lo zio qualche suggerimento potrebbe darlo all’intraprendente nipotino. Ma l’altro tema che inevitabilmente incontreremo su questa pista riguarda, come è ormai prassi consueta, la questione dei dati. Se noi avremo modo di trasferire al sistema di calcolo che guida l’avatar, sia nelle prime versioni puramente virtuali, che in quelle tridimensionali e materiali che Billy Berlusconi ci annuncia, i nostri dati psico-biologici, per rendere appunto il gemello in tutto corrispondente a noi via via che invecchiamo, a sua volta l’avatar a chi invierà questi dati preziosissimi per profilare intimamente l’umanità?
Siamo ad un giro di boa che ci fa intendere come forse, dietro l’apparente frivolo business della vanità dei ricchi milanesi, la famiglia Berlusconi si sia trovata ancora una volta , dopo la sbornia della TV commerciale negli anni 80, ad essere veicolo di un processo di modernizzazione passiva della nostra società che mira a sostituire i social come strumento di raccolta e trasferimento dati con un nuovo medium, basato sulla relazione diretta fra consimili di ognuno di noi, in cui la nostra anima diventa un file da appaltare.
Il Consiglio di sorveglianza di Facebook ha confermato il ban di Trump
|
Con una decisione tra le più attese della storia recente dei social media, Donald Trump è stato bandito in forma permanente anche da Facebook e da Instagram. È la decisione a cui l’Oversight Board, il consiglio di sorveglianza super partes istituito da Facebook l’anno scorso, è giunto nel pomeriggio italiano del 5 maggio, dopo mesi di discussioni e feedback degli utenti.
La sospensione definitiva dei profili dell’ex presidente era stata messa in discussione dalla piattaforma stessa, che aveva preferito affidare all’Oversight Board la decisione finale sulle sorti digitali del tycoon. Dopo mesi di discussioni il consiglio superiore ha confermato il ban definitivo dalle piattaforme di Menlo Park per l’ex presidente degli Stati Uniti. Nel contempo, però, l’Oversight Board ha espresso critiche nei confronti della natura permanente del divieto, in quanto questa azione non sarebbe congruente con le normali sanzioni applicate dal social network.
L’ex presidente è stato bandito da Facebook e Instagram a seguito dell’assalto al Campidoglio americano che i suoi sostenitori hanno messo in atto lo scorso gennaio, a seguito di un suo discorso a Washington che propagandava la fake news dei brogli elettorali che, a suo dire, gli avrebbe scippato le presidenziali di novembre.
L’organismo di vigilanza ha affermato che la decisione iniziale di sospendere definitivamente Trump è “priva di standard” e che la risposta corretta avrebbe dovuto essere “coerente con le regole applicate agli altri utenti della piattaforma”.
Nonostante questa sgridata a Facebook per il modo in cui ha deciso di bandire Trump dalle sue piattaforme, l’Oversight Board ha deciso che l’ex presidente ha effettivamente infranto gli standard della community di Facebook confermandone quindi l’estromissione.
Tuttavia, come si accennava il consiglio superiore ha stabilito che Facebook non può estromettere un utente dalle sue piattaforme per un periodo indefinito senza essersi dotato di criteri che stabiliscano come e quando l’account possa essere ripristinato. In sostanza, per il Consiglio, Facebook ha il potere di estromettere un utente ma deve concedergli la possibilità di redimersi e di meritarsi nuovamente l’accesso ai social network.
Il Consiglio ha anche nei fatti sostenuto che Facebook abbia cercato di evitare le proprie responsabilità “deferendo questo caso al board per risolverlo”.
“Sebbene queste raccomandazioni non siano vincolanti, esamineremo attentamente le raccomandazioni del board”, ha commentato Nick Clegg, vicepresidente degli affari globali e della comunicazione di Facebook.
Ora Facebook ha 6 mesi di tempo per rispondere alle decisioni della sua corte suprema stipulando delle nuove regole che possano gestire al meglio situazioni simili future. Nel frattempo Trump è già corso ai ripari, aprendo il suo personalissimo – e un po’ deludente – blog mascherato da social network.
Fenomeno Twitch
|
Twitch è una piattaforma di livestreaming di proprietà di Amazon. Il suo contenuto principale sono i videogiochi: tornei di eSports, talk-show a tema e canali personali dove giocatori amatoriali o professionisti trasmettono sessioni di gameplay.
Perché proprio i videogiochi? Quando è nata come Justin.tv nel 2007, i suoi contenuti live riguardavano diversi temi, ma quello che ha incontrato maggiormente il favore del pubblico sono stati i videogiochi. Così, al momento della rinascita come Twitch, si è deciso di puntare su uno sviluppo tutto in verticale. Amazon comprende il valore di questa piattaforma e nel 2014 l’acquista per circa 900 milioni di dollari.
Infatti, il mercato dei videogiochi è cresciuto esponenzialmente negli ultimi anni. In Italia l’AESVI (Associazione Editori Sviluppatori di Videogiochi Italiani) ha registrato per il 2018 un fatturato di oltre 1 miliardo e 700 milioni di euro, comprensivo di hardware e software. Si tratta di una crescita del 18,9% rispetto all’anno precedente.
Twitch è organizzato per canali e gli utenti possono seguirli gratuitamente, fare donazioni tramite la piattaforma o sottoscrivere un abbonamento al canale, ricevendo dei contenuti esclusivi. La pubblicità è impostata dai possessori dei canali, gli streamer, che possono decidere quando mandarla in onda ed è visibile solo agli utenti senza abbonamento.
Chi può diventare uno streamer? Sostanzialmente chiunque. Ai nuovi iscritti Twitch mette a disposizione un percorso fatto di video (Creator Camp) per apprendere le nozioni che servono per gestire un canale con dei contenuti e come costruire e mantenere una community. Viene spiegato anche come promuovere il proprio personal brand e costruire una strategia sui social media.
Ogni anno Twitch organizza in America, e da quest’anno anche in Europa, una convention con streamer provenienti da tutto il mondo, dove si susseguono eventi e presentazioni di videogiochi da parte delle case produttrici. Qui, i nuovi streamer hanno la possibilità di assistere a ‘seminari’ tenuti da chi ha più esperienza e ha raggiunto certi risultati. Gli argomenti variano anche a seconda del grado di affiliazione dello streamer. Infatti, Twitch distingue due gradi di partnership in base ai risultati, i quali sbloccano diverse funzionalità da mettere a disposizione degli utenti finali.
Quanto effettivamente è utile il percorso di Creator Camp? Sicuramente quelle conoscenze sono un valido aiuto per chi è all’inizio, ma occorre saperle adattare al proprio caso per creare originalità nei contenuti. Avere un approccio di tipo professionale, insomma, perché trasmettere live significa diventare un’emittente e quindi avere la necessità di creare un palinsesto, che entrerà in competizione con altri palinsesti (anche televisivi).
La forza di Twitch è proprio la diretta, sebbene la platea di utenti sia decisamente inferiore rispetto a YouTube, 140 milioni di utenti unici al mese contro l’1.8 miliardi circa del colosso dei video, può vantare un alto engagement e un alto tasso di conversione. E sono proprio queste due metriche a renderlo molto interessante per fare degli investimenti.
LA MALA COMUNICACIÒN… EL PROYECTO FRACASA EN 48 HORAS.
|
Al di là di considerazioni molto elementari – già dette e scritte da chi il calcio lo segue davvero da anni – sul fatto che la UEFA non funziona bene, sul fatto che la Champions League non è più la vecchia Coppa dei Campioni, sul calcio come spettacolo televisivo e business, ci sono anche alcune considerazioni meramente comunicative.
SUPER RIDICULO titola MARCA il quotidiano sportivo spagnolo. Ed effettivamente super-ridicola sembra proprio la gestione dilettantistica della strategia di comunicazione e gestione delle relazioni. E comunque a chi si occupa di relazioni pubbliche può servire come spunto di riflessione e lesson (to be) learned.
Preparazione. Anzitutto non è stato preparato il terreno nell’opinione pubblica, la UEFA ha sbagliato tantissimo in questi anni e si poteva fare una campagna di pre-lancio aprendo un dibattito pubblico sullo stato attuale del calcio, con cui lavorare in negativo per raccogliere il malcontento anche con una campagna media strutturata e in positivo per costruire entusiasmo;
Stakeholder management.non c’è stato un endorsement positivo da parte di politica, economia, società, anzi tutte le opinioni di leader politici e grandi opionisti sono state negative: questo significa che nessun grande opinion leader e decision maker era stato coinvolto e ingaggiato preventivamente
Simboli. La proposta ha come leader i due presidente meno “simpatici” ed “empatici” che il calcio conosca; forse identificare un simbolo dle calcio del passato come portabandiera avrebbe aiutato?
Purpose. Giustificare l’operazione in meri termini economici senza partire con un razionale (si direbbe un purpose) incentrato sulla passione, sulla sostenibilità, sul legame con il tifo, sullo spettacolo, è tecnicamente un epic fail;
Ascolto. I tifosi non sono stati ascoltati in anticipo e se anche è prevedibile la reazione degli esclusi, avere contro per primi i propri tifosi è un suicidio;
Comunità. Completamente ignorato il senso di appartenenza alle comunità, di cui in pandemia c’è un bisogno al cubo, che prima che virtual community sono nel calcio comunità locali legate a campanili e territori.
Marketing. Infine il consumer journey NFL / NBA, cui ci si è ispirati, è lontano anni luce da quello del tifoso di calcio europeo – molto più simile è quello dell’Eurolega di basket, che però ha un impatto politico-economico totalmente diverso
PS: no comment sull’intervista (in ritardo) a Repubblica.
Un regolamento ancora troppo euclideo
|
a diffusione del nuovo indirizzo dell’Unione Europea sulle modalità di sviluppare e adottare strumenti di intelligenza artificiale (IA), nel giorno in cui si ricordava il 75° anniversario della scomparsa di John Maynard Keynes ci fa intendere quale sia l’ispirazione di questo documento. La conferma di un’eccezionalità europea, dove economia e saperi rimangono comunque saldamente nella sfera di una strategia pubblica di equilibri e bilanciamento dei poteri. Il documento ha infatti l’ambizione – dinanzi a un quadro tecnologico di grandi prospettiva e speranza ma dove non mancano rischi e svantaggi per il sistema culturale e democratico europeo – di voler procedere con un approccio sistematico, laddove specificatamente si spiega che
per tale ragione, si rende alquanto necessario, in questo preciso momento storico, sviluppare un quadro giuridico che istituisce un approccio europeo in materia di intelligenza artificiale per promuovere lo sviluppo e l’adozione di sistemi di intelligenza artificiale che soddisfino un elevato livello di protezione degli interessi pubblici.
L’obbiettivo è quello di creare in Europa un ecosistema funzionale basato sulla fiducia
che copra l’intero processo di produzione, commercializzazione, vendita e utilizzo dell’intelligenza artificiale all’interno dell’Unione.
Per questo si fissa un sistema sanzionatorio anche più rigido di quello previsto con il DGPR, l’analogo regolamento per la gestione dei dati, che arriva a prevedere multe per il sei per cento del fatturato dell’impresa che trasgredisce.
La novità concettuale riguarda l’introduzione di una pratica di supervisione sulle forme e gli effetti di questi dispositivi in grado di crescere e autonomizzarsi nell’azione decisionale; significa certamente ridimensionare ruolo e poteri dei proprietari di quella potenza di calcolo che, anche nella pandemia, sta ordinando ogni attività e comportamento sociale. Rimane ancora incerta la modalità e il meccanismo con cui è poi esercitata questa supervisione su cui torneremo più avanti.
ytali è una rivista indipendente. Vive del lavoro volontario e gratuito di giornalisti e collaboratori che quotidianamente s’impegnano per dare voce a un’informazione approfondita, plurale e libera da vincoli. Il sostegno dei lettori è il nostro unico strumento di autofinanziamento. Se anche tu vuoi contribuire con una donazione clicca QUI
Un percorso che idealmente si riallaccia ad una delle vene che alimentarono il sogno europeo negli anni Sessanta, con l’allora famoso saggio del direttore dell’Express Jean Jacques Servan Schreiber, La Sfida Americana, in cui l’autore sollecitava un’attenzione dei governanti dei paesi del MEC, il progenitore dell’U.E., nell’attivare imprese e investimenti nelle nuove tecniche informatiche e telematiche che gli americani stavano abbondantemente importando in Europa. Sono gli anni della svendita alla General Electric della divisione informatica dell’Olivetti. Una stagione dominata dal mito dell’auto, in cui, come spiegava l’amministratore delegato della Fiat del tempo, Vittorio Valletta, “L’informatica non è per noi”.
Per più di mezzo secolo abbiamo accettato, complice la guerra fredda e la militarizzazione di queste tecnologie di base, la subalternità ai grandi gruppi americani, dall’IBM alla Silicon Valley. Ora queste soluzioni sono abbondantemente fuoriuscite dall’alveo puramente industriale investendo direttamente la società e programmando, tramite la connessione con le grandi piattaforme e la gestione dei big data, comportamenti ed emozioni, interferendo palesemente con il senso comune di ogni paese o comunità.
Cambridge Analytica è il punto di svolta che rende l’intelligenza artificiale un modello sociale prima che imprenditoriale, una tecnicalità di produzione e organizzazione del consenso, sia commerciale sia anche politico istituzionale.
Il primo dato che in qualche modo appare evidente dall’approccio dell’U.E. è proprio la convergenza di questi due mondi: le culture e tecniche per organizzare la produzione e i servizi, rendendo competitive le singole imprese coincidono con codici e linguaggi di relazione sociale. L’efficienza diventa anche egemonia, o come scriveva il filosofo Remo Bodei, dominio. Questo percorso è scandito da tre atti specifici:
Quadro giuridico europeo per l’IA per affrontare i diritti fondamentali e i rischi di sicurezza specifici dei sistemi di IA;
Norme UE per affrontare le questioni di responsabilità legate alle nuove tecnologie, compresi i sistemi di IA (ultimo trimestre 2021-primo trimestre 2022);
Revisione della legislazione settoriale sulla sicurezza (ad esempio, regolamento sulle macchine, direttiva sulla sicurezza generale dei prodotti, secondo trimestre 2021).
Il combinato disposto di questi tre documenti determina la strategia comunitaria che fissa, questa è l’altra novità, vincoli e limiti che rendano i processi di ricerca, prima ancora della commercializzazione, dei sistemi intelligenti omologabili ai criteri di democrazia e partecipazione che sono la base del sistema continentale. Vengono per tanto, ad esempio inibiti apparati per il riconoscimento facciale generalizzato, o comunque basato su dati biometrici, che dovranno essere attentamente valutati e autorizzati in base a comprovate esigenze di ordine pubblico o di esigenze giudiziarie.
Così come vengono severamente regolamentate le forme di implementazione di algoritmi che gestiscono attività di pubblico interesse di pregiudizi o discriminazioni che alterino le conseguenze e i risultati di questi sistemi automatici. Entriamo cosi nella sfera di quelle attività che il regolamento europeo definisce di “rischio elevato”. Sono gli ambiti , come la formazione, la scuola, la selezione del personale, l’informazione, la sanità, in generale servizi rivolti al pubblico, in cui i dispositivi digitali, comportando a regime straordinari effetti nella capacità di svolgere grandi quantità di funzioni, con un alto livello di personalizzazione, inevitabilmente introducono criteri e valori psico sociali che devono essere attentamente ponderati.
Un rischio aumentato per la tendenza delle P. A: ad acquisire queste nuove tecnologie senza un adeguato livello di controllo e selezione. In queste norme si capisce che si vuole porre fine alla tendenza di delegare al fornitore la definizione del modello di tecnologie necessaria per quel problema e il suo corredo etico e semantico. Una tendenza che da tempo sta omologando interi settori, pensiamo appunto all’informazione o alla sanità, agli interessi dei monopolisti digitali, come Google o Amazon.
In questo complesso di vincoli e limitazioni non tocca all’utente o all’ente pubblico dimostrare la conformità dei prodotti o servizi adottati alle regole europee.
Parimenti a quanto previsto dal GDPR, è infatti in capo al produttore l’obbligo di svolgere un cosiddetto conformity assessment, ovvero di mettere in atto un processo, prima che il prodotto sia commercializzato, che possa dimostrare se i requisiti del Regolamento siano stati rispettati, al pari di quanto avviene nel GDPR, all’interno del quale il principale strumento di assessment è rappresentato dal Registro delle attività di trattamento e dallo svolgimento di idonee valutazioni del rischio che il trattamento stesso può comportare nei confronti dell’interessato.
Questo significa che in un giornale, in un sistema di consegne a domicilio, in un’azienda, in un ministero, il produttore del pacchetto di software e intelligenze che governa le funzioni di quel ambiente deve dettagliatamente documentare e rendere accessibili i punti nevralgici e sensibili del complesso tecnologico commercializzato.
Entriamo a questo punto in contatto con un aspetto debole, incerto e pericoloso di tutto il modello normativo europeo: come e chi può verificare la congruenza delle tecniche con i valori affermati?
Infatti tutta la sequenza di norme sembra diretta solo a un negoziato commerciale fra imprese, fra chi produce intelligenza e chi la compra o l’adatta. Manca completamente l’altra gamba del tavolo che sono gli utenti e le comunità che vengono investite dall’attività di questi modelli automatici. Come esercitare i diritti affermati nel regolamento proposto dall’U.E?
In concreto, come i lavoratori delle ditte che agiscono in appalto da Amazon possono accedere e negoziare igli algoritmi che determinano l’organizzazione del lavoro? E in una fabbrica a 5G come si contratta il sistema automatico di trasferimento dati e informazioni? E in un ufficio pubblico come si gestisce un bando o una selezione del personale con modelli intelligenti? E a scuola o in un ospedale come insegnanti e medici si rendono conto di cosa è arrivato e di come questi meccanismi apprendono e si auto programmano?
Questo è il punto che non trova risposta. L’intelligenza artificiale, l’abbiamo detto, è innanzitutto una disciplina sociale che deve trovare una sua declinazione in base a diritti, ambizioni, pretese e necessità degli utenti che l’ha coprogrammano con i propri dati. Bisogna trovare procedure ed esperienze che guidino un processo di interattività sociale in cui dipendenti, professionisti, utenti, clienti e soprattutto cittadini abbiano la possibilità di usare le prerogative fissate dal regolamento per un’azione di riprogrammazione e ridisegno del sistema e non solo per generiche constatazioni di conformità.
Sono fissati con precisione i principi di sicurezza :
identificazione e analisi dei rischi noti e prevedibili associati a ciascun sistema di IA ad alto rischio;
stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio viene utilizzato conformemente allo scopo previsto e in condizioni di uso improprio ragionevolmente prevedibile;
valutazione di altri rischi eventualmente derivanti dall’analisi dei dati raccolti dal sistema di monitoraggio post-mercato di cui all’articolo 61;
adozione di adeguate misure di gestione dei rischi conformemente alle disposizioni dei paragrafi seguenti.
I set di dati utilizzati nella fase di sviluppo e di testing del sistema, pertinenti, rappresentativi, liberi da errori e completi, oltre che dotati delle proprietà statistiche appropriate, anche per quanto riguarda le persone o i gruppi di persone sulle quali è destinato ad essere utilizzato il sistema di IA ad alto rischio.
Il tutto nell’ambito di un’affermazione importante e decisiva in cui si proclama che
devono essere progettati e sviluppati in modo da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo in modo appropriato.
Ma poi tutto questo come diventa pratica corrente? Come produce capitolati tecnici concordati? Come riorganizza i prodotti originari alla luce delle esigenze materiali degli utenti ?
Siamo a un passaggio decisivo. Non si tratta di voler applicare tradizionali procedure, come le precedenti negoziazioni sindacali all’intelligenza artificiale. Si vuole salvare, di quelle esperienze, l’ambizione di rimodellare un progetto astrattamente tecnico sulla base delle esigenze primarie degli esseri umani. Per fare questo, il punto di arrivo di una soluzione non può coincidere con il punto di partenza, e in mezzo ci deve essere una pratica negoziale. Siccome, questo è il salto innovativo, un algoritmo è controllabile solo da un algoritmo, e una piattaforma solo da un’altra piattaforma, bisogna aggiungere al regolamento europeo un codicillo che preveda che ogni dispositivo di intelligenza artificiale deve essere omologato e validato, come un farmaco da enti e soggetti che siano condivisi e partecipati da adeguate rappresentanze degli utenti o degli addetti alle attività organizzate da quell’intelligenza con adeguate strumentazioni digitali. Un cambio di ottica, un modo per rendere economia e società convergenti. Del resto come scriveva a Bernard Show, nel 1935, proprio Lord Keynes, criticando i suoi colleghi economisti che lo richiamavano alle compatibilità obbligate dei bilanci:
geometri euclidei in un mondo non euclideo, i quali scoprendo che nell’esperienza concreta due rette apparentemente parallele spesso s’incontrano, sgridano aspramente le linee stesse per la loro incapacità di andare diritte come se fosse l’unico rimedio alle disastrose collisioni che si verificano un po’ ovunque.
Sarebbe bene non strillare alle rete ma capire che tutto ormai converge.