È come se una fotocopiatrice venisse usata per fare una TAC. Oppure è come se una piattaforma di streaming televisivo fosse usata per addestrare sistemi intelligenti a base organica, i cosiddetti “organoidi”, i computer basati direttamente su neuroni biologici prodotti con cellule staminali.

Non vogliamo stupirvi con effetti speciali, stiamo cercando di rappresentare il contesto inevitabile di un qualsiasi ragionamento sul sistema televisivo, che si trova a condividere con i nuovi mondi dell’intelligenza artificiale linguaggi, soluzioni, strumenti e soprattutto destinazioni.

La Tv ormai non è solo quello che si vede nel piccolo schermo e coincide sempre più con una potenza di calcolo che attraversa e riqualifica la sua dimensione di spazio pubblico; trasformando un mezzo di comunicazione di massa in un canale di conversazioni individuali, sulla base di un flusso incessante di dati.

Mentre ancora strabiliamo per i prodigi delle nuove applicazioni lanciate da Open AI, con Chat GPT, che hanno reso l’intelligenza artificiale un genio della lampada che ognuno di noi può usare per avere soluzioni immediate sia di testi che di immagini, subito lo scenario cambia ulteriormente con l’avvento di Chat GPT4: la nuova release del dispositivo di intelligenza artificiale, presentato proprio mentre scrivevamo questo testo che abbiamo dovuto ripetutamente aggiornare e integrare.

Quello che si è realizzato sotto i nostri occhi, con il passaggio fra le due versioni di Chat GPT, è un salto non solo quantitativo ma essenzialmente qualitativo, che dota il sistema di una proprietà di valutazione e una capacità di elaborazione di ogni singolo concetto sempre più vicino alla media della nostra attività professionale. Ma la vera differenza che rende il nuovo standard la massima approssimazione alla discrezionalità umana riguarda gli input, cioè il modo in cui l’intelligenza artificiale viene interrogata e orientata.

Fino ad oggi dovevano essere quesiti o suggerimenti testuali, espressi con un linguaggio naturale, ma pur sempre frasi di senso compito. Ora invece il dispositivo accetta e processa ogni genere di messaggio: testuale, grafico, fotografico, video e persino semplici schemi disegnati con larga approssimazione. Una capacità che ci informa intanto della sua più vasta attività neurale, che ha campionato e decifrato una larghissima parte delle espressioni concettuali che l’umanità ha elaborato nei suoi ultimi migliaia di anni. Ma, soprattutto, ci fa intravvedere come imminente la fase in cui – proprio mediante i linguaggi iconici – la scena non sarà più caratterizzata dalla relazione uomo-macchina, con le mille combinazioni che in questi ultimi 30 anni abbiamo imparato ad imbastire, via via che i terminali digitali si facevano più sensibili, quanto direttamente macchina-macchina, segnando una vera cesura in termini antropologici e semantici. Entrerebbero in campo come soggetti relazionali qualcosa come almeno altri 50 miliardi di interlocutori che si troverebbero a produrre e intercettare dati.

In sintesi potremmo dire che il sistema audiovisivo sta diventando una straordinaria banca dei dati che sostituisce alle infine informazioni sulle nostre attività, sensazioni e decisioni un flusso di immagini destinate a farsi scegliere da noi. Ma questo meccanismo, ossia la ricomposizione di una nuvola di minuscoli dati per creare cluster originali di profili e prodotti comunicativi sta diventando un metodo universale per procedere in tutti i campi della ricerca, a partire da quella più sensibile e prescrittiva che la ricerca biotecnologica.

Dalla capacità di generare immagini da un semplice appunto scritto in linguaggio naturale, come può fare Dell-2, il sistema di intelligenza artificiale che produce automaticamente video da semplici testi scritti, si è ottenuto un aggregatore in grado di selezionare e comporre proteine, alcune anche del tutto sconosciute.

Le ultime notizie che ci vengono dalle nuove frontiere dell’intelligenza artificiale1 ci mostrano come ormai ogni soluzione che ridisegna l’apparato mediatico sia conseguenza o premessa di una più ampia strategia di riprogrammazione degli elementi fondamentali della nostra vita. Significativo e assolutamente sorprendente è il cosiddetto progetto Chroma2 elaborato da una promettente start up del Massachusetts che ha presentato come la DELL-2 della Biologia. Si tratta di un sistema che, ricalcando il meccanismo del nuovo algoritmo Dell-2, è arrivata a riprodurre diverse proteine con una precisione ed efficacia mai sperimentate prime. Contemporaneamente nei laboratori dell’University of Washington, con lo stesso procedimento basato su un modello analogo all’algoritmo di Dell-2, sono state ingegnerizzate proteine del tutto inedite, che non sono note alla biologia.

Le proteine, come sappiamo, sono elementi costitutivi il processo di creazione degli organismi viventi. Certo non siamo ancora alla vigilia di Frankenstein, ma quel percorso da oggi è meno lontano.

Il dato che voglio qui riportare, e su cui discutere per mettere meglio a fuoco il tema di questo mio contributo che cerca di focalizzare una visione coerente e attuale del servizio pubblico radiotelevisivo, riguarda infatti proprio la commistione, la convergenza si dice più correttamente, fra soluzioni algoritmiche proprie del mondo della comunicazione audiovisiva e le nuove modalità di tecnica biologica, che sono finalizzate ad un intervento diretto sulla riproduzione della nostra specie. Una nuova relazione fra informazioni, immagini e scienza che assegna responsabilità e missioni ancora più complesse al sistema televisivo.

Come ci spiega il grande genetista Craig Vender, i sistemi di calcolo non sono stati inventati per farci giocare con i social, ma per riprogrammare la vita umana. L’intero sistema digitale, in tutte le sue componenti, in tutte le sue competenze e saperi, è oggi proteso ad una riprogettazione delle relazioni umane e della stessa struttura biologica dell’essere umano.

In questa prospettiva il sistema multimediale, sempre più guidato e gestito da logiche di calcolo, è una componente di questa dinamica, con le sue responsabilità e le sue capacità di controllare e attivare forme di coinvolgimento e di consenso a questi processi. La materia prima di questa digitalizzazione delle nostre relazioni sono appunto i dati che sostituiscono i media di massa con i canali on demand di diretta personalizzazione.

Nel suo ultimo saggio, Cultur Analytics, Lev Manovich, uno dei più lucidi, attrezzati e documentati scienziati del sistema digitale, centra proprio questo aspetto nevralgico quando ci spiega che attraverso l’analisi dei dati oggi possiamo scientificamente cogliere e riprodurre ogni singola attività umana, a partire proprio dalle espressioni culturali.

Scrive su questo Manovich: “L’approccio ai processi e agli artefatti culturali intesi come pretesti per raccogliere dati può portarci a porre quei tipi di domande sulla cultura che le persone che oggi di professione ne scrivono, la curano e la gestiscono non si pongono perché tali domandi andrebbero contro la concezione accettata della cultura della creatività, dell’estetica e del gusto nelle scienze umane, nei media popolari e nel mondo dell’arte”. Proseguendo questa osservazione l’autore del saggio ancora ci incalza: “come si trasformano le esperienze culturali, gli eventi, le azioni e i media in dati? Cosa si guadagna e cosa si perde in questa traduzione? E una volta che la trasformiamo in dati, come possiamo esplorare la cultura su più scale, potendo osservare sia ciò che è unico o poco frequente sia i modelli comuni e regolari?”

Stressando ancora di più il concetto e affrontando il tema più specifico per noi, ossia il modello di produzione audiovisivo, penso che dobbiamo chiederci come cambierà nel prossimo futuro, diciamo nell’arco di 3/5 anni, il comparto cinematografico e televisivo in tutte le sue declinazioni sotto la pressione dell’A.I.?

Già oggi abbiamo dinanzi a noi una trasformazione che stentiamo a riconoscere come un dato materiale (e ormai incontrovertibile): la riorganizzazione della distribuzione mediante la programmazione attraverso i big data.

Come abbiamo già visto, da Google a Spotify a Netflix, al nuovo televisore Sky Glass, noi siamo già immersi in una infosfera, come dice Luciano Floridi, interpretando le nostre relazioni come uno scambio esclusivo di informazioni, o ancora meglio in una docusfera, come opportunamente corregge Maurizio Ferraris, che invece tende a considerare come determinante del nostro modo di vivere la tracciabilità dei dati che disseminiamo lungo i nostri percorsi digitali, in cui ogni contenuto e messaggio è la conseguenza e non più la causa di un grafo di informazioni e dati prodotti dai suoi utenti.

Parlando di TV, non possiamo dunque ignorare il fatto che siamo dinanzi ad una gigantesca questione di etica e di politica, dove i meccanismi apparentemente tecnici veicolano comportamenti e soprattutto destini in base alla possibilità di integrare la nostra attività con protesi e sistemi sempre più autonomi nella raccolta, analisi e finalizzazione dei dati. L’esperienza e lo sciame polemico indotto dal Festival di Sanremo testimonia come ormai ogni frammento del palinsesto televisivo sia occasione e pretesto per attivare quegli ingranaggi di relazioni digitali e di interattività sociale che a loro volta producono quella massa di dati individuali che alimentano l’evoluzione dei processi biotecnologici, personalizzando ogni aspetto delle trasformazioni digitali.

Ora nella società dell’informazione e dello spettacolo, dove lo scambio di notizie produce valore e dà sostanza ad ogni funzione sociale, e dove la rappresentazione pubblica, con un linguaggio multimediale, determina l’attrazione di ogni attività o servizio, diventa decisivo misurare l’impatto di una tale innovazione, quale la filiera di soluzioni tipo Chat GPT, sul ciclo di produzione audiovisivo di cui abbiamo già incontrato le prime esperienze.

Schematicamente a me pare fondamentale cogliere la tendenza del processo, e non tanto soppesare la funzionalità di ogni singola tappa – ossia l’efficienza di ogni singolo prodotto – valutando la capacità del trend che individuiamo come principale a riconfigurare le attività sociali a partire proprio dai linguaggi audiovisivi.

Sarebbe patetico, oltre che inutile, come vedo comunque fare, registrare le mille inadempienze o incongruenze che un attuale agente intelligente si trova a manifestare se messo alla prova con attività nobili, quali appunto l’elaborazione o la programmazione di piani di produzione audiovisiva. Il vero punto di frequenza, ossia quella circostanza che modifica radicalmente le condizioni precedenti così come nei cristalli, è ragionare su quali siano le potenzialità espressive e creative di una soluzione tecnologica che si trova ad essere costantemente rimodellata dal suo uso, determinando con il machine learning, una vera rottura epistemologica nella cultura umana, sempre contrassegnata da una crescita lineare basata dall’incremento della base cognitiva, del suo sapere, delle sue nozioni e capacità, separate dal modo in cui vengono poi utilizzate. La tecnica di una produzione cinematografica o di un montaggio non evolve con il suo uso, ma con l’apporto creativo dei suoi artigiani che gradualmente vi apportano le modifiche migliorative. Mentre i sistemi digitali intelligenti hanno ormai da tempo un meccanismo che trasforma la quantità di utilizzatori in qualità di funzione. Questo aspetto è forse quello su cui varrebbe la pena di ragionare e confrontarci, per cogliere la reale portata della trasformazione in atto. E soprattutto individuarne le ragioni e le motivazioni che rendono inevitabile la trasformazione.

In questa sede ci sembra sufficiente introdurre due aspetti che ci portano naturalmente ai processi di automatizzazione del ciclo produttivo multimediale. Il primo è la personalizzazione del singolo prodotto. Questa domanda differenziata da parte degli utenti costringe gli autori ad un lavoro inedito che viene bene documentato nel testo Mercanti di verità di Jill Abramson, che analizza la realtà e non le previsioni dell’attuale mercato giornalistico americano, dove, dice l’autrice, già direttrice del New York Times, “ogni giornalista si trova nella sua nuova funzione polivalente di produttore e gestore dei flussi di news digitali che vengono postati e pubblicati sul web ad abbinare ogni singola notizia ad ogni singolo utente”. Una combinazione che porta l’attività editoriale fuori dalla portata del lavoro artigiano dei redattori e impone il ricorso a possenti infrastrutture digitali che siano in grado di elaborare e distribuire capillarmente il flusso informativo.

Il secondo aspetto che riclassifica materialmente le professioni dell’immaginario è proprio la disponibilità di una massa infinita di dati che permette e impone la profilazione degli utenti e la tipicizzazione dei prodotti, come ci insegnano le esperienze di Spotify o di Netflix.

Questo è il punto decisivo in cui cambia la natura del fenomeno. Siamo ormai in uno scenario da umanità aumentata, di estensione e articolazione delle nostre funzioni e sensorialità, grazie alla combinazione di intelligenze e memorie esterne, vere protesi della nostra fisiologia. Questa ibridazione della nostra mente e del nostro corpo avviene prioritariamente grazie al nuovo carattere di ambiente avvolgente che il sistema mediatico sta assumendo proprio per rispondere alla sua nuova missione di interfaccia permanente delle nostre attività e di rastrellatore di dati per meglio profilarci. Lungo questo crinale va oggi ricostruita un’identità di servizio pubblico radio televisivo che non è più concepibile limitare a quella triade che nel secolo scorso orientava l’attività di BBC: informare, educare, intrattenere.

La matrice di questa trasformazione è etica; essa rende più invasivi i media, permettendogli grazie proprio alla loro capacità di cibarsi delle nostre esperienze, di rispondere con un’aderenza assolutamente inedita, alle nostre più diverse e individuali esigenze. Una capacità che inevitabilmente si trova a convivere con la possibilità di orientare e interferire proprio con il riconoscimento delle nostre esigenze da parte di noi stessi. In questo delicatissimo equilibrio fra personalizzazione e interferenza si colloca lo spartiacque fra una finalità puramente speculativa, o peggio di controllo sociale autoritario che il sistema mediatico esercita, e invece una straordinaria funzione di supporto e apporto ai percorsi di emancipazione e liberazione di ogni singolo utente.

La chiave, il motore di questo dualismo si trova esattamente, come ci spiega Manovich, in quel sistema di apprendimento ed auto elaborazione dei dati che i nuovi sistemi intelligenti sviluppano e che definiamo oggi machine learning. L’algoritmo diventa in qualche modo da semplice protesi tecnica un vero partner al nostro fianco o ombra minacciosa alle nostre spalle, non tanto nella sua versione iniziale ma proprio quando comincia ad evolvere sulla base di un’autonoma elaborazione dei dati e delle informazioni. La direzione che assumerà, crescendo, non è occasionale o imprevedibile, ma dipende dall’imprinting etico/ideologico che il proprietario gli ha impresso. Più concretamente dipende dalle sue finalità: perché è stato investito denaro in quel sistema? È una domanda che dovremmo sempre farci.

Più in generale l’aspetto etico, il corredo di valori e fini che pilotano il machine learning dei nuovi dispositivi di intelligenza artificiale è anche l’unico terreno su cui attivare una pressione sociale per negoziare e ottimizzare i sistemi proprietari.

Non a caso nei primi giorni dell’anno, in Vaticano, nell’ambito del progetto Call for Etichs, si è arrivati alla firma di un documento comune delle tre religioni monoteiste proprio sui limiti e i controlli dell’ingegnerie biotecnologica3 in base a principi di codeterminazione etica.

Oggi però, a distanza solo di qualche settimana, quel documento, per quanto impegnato e lungamente elaborato dai massimi esperti delle tre comunità religiose monoteiste del pianeta, ci sembra già in qualche modo superato, o comunque aggirato.

La partita che si sta giocando, con forze, volontà e lucidità assolutamente asimmetriche fra i proprietari dei sistemi di calcolo e i rappresentanti istituzionali degli utenti, è proprio quella che riguarda la riproduzione e l’integrazione della specie umana. Se non direttamente la vita artificiale sicuramente è un’esistenza aumentata, in cui la biologia diventa una variante del sistema matematico che guida da tempo i nostri comportamenti.

L’ammonimento di Craig Vender diventa sempre più minaccioso, e soprattutto la sua previsione sul fatto che queste nuove tecniche di intervento genetico, come il CRISPR, il sistema di manipolazione del patrimonio genetico di un individuo, sono sempre più miniaturizzate, diventando accessibili per sistemi, apparati e addirittura gruppi criminali senza particolari dotazioni o dimensioni organizzative, pone un problema di sicurezza e soprattutto di controllo sociale. Ma anche di natura e carattere della democrazia.

Se invece di trastullarci con futili motivi , quali sono il tema delle fake news o dell’inquinamento giornalistico, affrontassimo a livello politico, delle massime responsabilità istituzionali, il nodo di come combinare l’accessibilità alle nuove tecniche, come indiscutibili occasioni di democrazia e benessere più estese nel mondo, alle esigenza di controllo e di limitazioni dell’uso di queste opportunità per alterare equilibri naturali fondamentali, forse l’orizzonte del pianeta sarebbe meno precario e la politica, dopo la quaresima in cui si trova alla ricerca di senso e ragioni, troverebbe una nuova missione per dare nerbo e indispensabilità al suo protagonismo.

Diventa esemplificativo il metodo che è stato usato per finalizzare un sistema quale appunto Dell-2, che doveva servire solo a moltiplicare la capacità di produzione di immagini, decentrando, questo è poi il concetto chiave che rende instabile e imprevedibile l’azione della rete, a imprese e professionisti sempre meno dotati economicamente la possibilità di entrare sul mercato comunicativo. Quel meccanismo che vede un’intelligenza artificiale scovare e ricomporre i pixel di un’immagine in rete in base alla sommaria descrizione trasmessa in linguaggio naturale da un committente – voglio l’immagina di una ragazza con occhi verdi e foggia spaziale su scenario astratto – oggi viene utilizzati per selezionare e combinare amminoacidi che possono configurare proteine del tutto ignote sul pianeta.

Il decentramento, ce lo spiega lucidamente il generale cinese Quiao Linag nel suo saggio L’Arco dell’Impero, è la tendenza destinata a squilibrare gli assetti politici e geopolitici, facendo irrompere sulla scena soggettività politiche del tutto imprevedibili e improvvisate. La terribile guerra in Ucraina è una testimonianza di come questo decentramento in alcuni casi ha disintermediato perfino gli apparati militari spostando il combattimento dall’uso di sistemi d’arma convenzionali alla raccolta, elaborazione e distribuzione di dati.

I tumulti brasiliani, o le minacce dei trumpiani nel corso dell’insediamento del presidente Biden due anni fa, ma anche il crescere dell’onda reazionaria e sovraniste sui social, sono modelli che ci dicono come anche in politica prendano forma proteine sconosciute mediante l’uso di intelligenze artificiali che selezionano materie prime – in politica gli amminoacidi delle proteine sono interessi e messaggi dosati sapientemente uno per uno a milioni di elettori profilati e catalogati – per riprogrammare la domanda politica.

La socializzazione delle capacità di calcolo, e in particolare oggi dei processi della ricerca, è il buco nero che si deve colmare. Anche perché la scienza è sempre più una esperienza comunitaria, e sussidiaria, basata sulla complicità dei cittadini. Sono i dati, cioè la materia prima ancora esclusiva per la razza umana, non suscettibile di riproduzione tecnologica, la fonte che rende efficaci e dinamiche le intelligenze del machine learning. Dati che appartengono alle comunità e che rendono la ricerca una pratica sussidiaria. Come spiega il capo ricercatore di Google Peter Norvig “noi non abbiamo algoritmi migliori o talenti esclusivi rispetto agli altri. Abbiamo solo molti più dati”. Un cambio di scena copernicano, che abilita il calcolo non più a supporto e servizio della nostra attività, ma a lingua vitale ed esclusiva del libro della vita, come scriveva Galileo Galilei.

Come confessa il responsabile del settore ingegneria di Netflix, Xavier Amatriain in un’intervista rilasciata a Wired per l’inchiesta The Science behind the Netflix Algorithmics4, “sappiamo cosa avete giocato o cercato, o valutato o l’ora, la data e il dispositivo che avete scelto. Tutti questi dati confluiscono in diversi algoritmi, ciascuno ottimizzato per uno scopo diverso. In senso lato la maggior parte dei nostri algoritmi si basa sull’ipotesi che modelli di visualizzazione simili rappresentano gusti simili degli utenti”.

Lo stesso fanno le grandi piattaforme di abbinamento fra ogni singolo oggetto iconografico, sia essa fotografia, come propone Yelp, o musica, come Spotify, o video, come Youtube, e ognuno delle centinaia di milioni di utenti.

Ma l’operazione che archivia la pur brillante intuizione nel dopoguerra dei fondatori della scuola di Francoforte è che il destinatario di questa nuova produzione di messaggi medianti i dati di profilazione non è la massa degli utenti, ma ogni singolo cittadino che, consegnando i suoi dati si rende disponibile ad essere interpretato e riprodotto, proprio in virtù della sua diversità da tutti gli altri.

Se aveva perfettamente ragione nel secolo scorso Sherlock Holmes a dire che “l’individuo è un enigma insondabile ma infilalo in una massa diventa una certezza matematica”, oggi possiamo dire che la massa diventa un oggetto governabile in base alla capacità di calcolare ogni singolo comportamento. In sostanza, ci ha spiegato il direttore della tecnologia di Netflix Amatrian che non solo le raccomandazioni della sua piattaforma individuano in maniera chirurgica la platea di individui per ogni film che trasmettano, ma che la produzione dei film è condizionata dall’obbiettivo di raggruppare quella particolare platea, composta da quei particolari individui a cui ogni fase della produzione, dalla sceneggiatura alla regia al montaggio, è dedicata individualmente. Per questo conclude Manovich “la media analytics è l’aspetto chiave della materialità di tutti i media di oggi”.

Se questo fenomeno di inversione della relazione fra distribuzione e produzione, con un dominio incontrastato dei distributori sui titolari dei contenuti, come vediamo sul mercato con lo strapotere delle grandi piattaforme rispetto alle casse forti del copyright, allora diventa più chiaro il percorso che stiamo conducendo insieme a Chat GPT e compagnia bella.

Manovich infatti scrive il suo poderoso saggio che abbiamo ripetutamente citato fra il 2015 e il 2018, descrivendo con una massa poderosa di documenti l’antefatto del processo di automatizzazione.

Il quadro ci appare in poco tempo già strutturalmente mutato, con l’esplosione dei format di intelligenza artificiale personalizzati. Oggi, con la miniaturizzazione degli agenti intelligenti che appunto decentrano la potenza dell’intelligenza artificiale ad ogni individuo, la nuova spirale socio-tecnologica integra in ogni attività professionale o relazionale il supporto di un sistema di elaborazione e finalizzazione di quell’immenso tappeto di dati che fino ad ora era disponibile solo per grandi apparati in grado di processarli. Una trasformazione che innesta un movimento permanente del perfezionamento tecnologico che, basandosi proprio su un meccanismo di machine learning come abbiamo descritto, capitalizza la crescita geometrica degli utenti.

In questa transizione, paradossalmente rispetto alle aspettative, ad essere surrogato dall’automatizzazione sono prioritariamente proprio le abilità tecniche, o ancora meglio, proprio le funzioni informatiche, che vengono assorbite dal dispositivo, mentre diventa discriminante la capacità di orientamento tramite quesiti del sistema. Si inverte la modalità di produzione del pensiero e delle idee.

Fino ad oggi la nostra cultura era il frutto della selezione delle migliori risposte alle mille domande che affioravano dalla vita sociale, da cui ricavavamo per ognuno di noi il tasso di intelligenza, talento, ispirazione, profondità, speculazione, visione, che andavano a determinare la nostra competitività sul mercato. Oggi invece è la domanda che decide. È la nostra capacità di orientare verticalmente ogni entità di intelligenza artificiale verso lo specifico problema che ci è stato posto con una pista di quesiti che addestri il dispositivo digitale, estraendone il massimo di valore cognitivo, tradotto in una relazione fra il minor tempo impiegato per elaborare la maggiore massa di dati.

Si producono contenuti, si generano soluzioni, si elaborano concetti e valori in base alla nostra capacità di estrarre dai moduli di intelligenza artificiale risultati in base alle domande che poniamo. Un cambio concettuale che riformula l’intero profilo professionale e organizzativo della società della conoscenza.

Il principale riscontro di questa cosiddetta mediamorfosi lo osserviamo proprio nel mondo della comunicazione. Nel segmento giornalistico, dove con più maturità e profondità si sono già manifestate le trasformazioni di sistema, siamo ad un nuovo e al momento incontrollato, tornante tecnologico.

Le esperienze della tragica guerra in Ucraina, come descrivo nel mio saggio NetWar: in Ucraina il giornalismo sta cambiando la guerra, ci stanno mostrando la rapida evoluzione del combattimento mediante uso delle forme e delle infrastrutture del giornalismo. Un processo che porta direttamente in campo le componenti sociali primarie, nel caso della guerra le forze armate e la popolazione civile, che si contende i flussi informativi e la possibilità di interferire nel senso comune dell’avversario, come modalità della guerra ibrida, teorizzata già dal generale Valery Gerasimov.

In questo quadro l’abbondanza delle fonti, tutte credibili e verosimili, mette a dura prova la capacità dei professionisti dell’informazione di selezionare e validare quelle autentiche, costringendoli a dotarsi di strumenti e potenze digitali in grado di leggere e decifrare in velocità un tale flusso di dati. Una dinamica che porta a ricomporre la scissione fra informatica e informazione, rendendo la macchina giornale una piattaforma algoritmica che, al pari delle altre, deve analizzare matematicamente la massa di contenuti che vengono ormai prodotti dalla società civile.

Con la banale scusa di sperimentare il nuovo dispositivo, numerose testate fra cui il Guardian, o in Italia il Foglio, stanno già combinando nella propria produzione artigianale contributi che vengono direttamente da Chat GPT o dai suoi epigoni, gestendo e ottimizzando siti web, contenuti per i social e le stesse pagine della versione cartacea con articoli ricavati direttamente dai sistemi intelligenti mediante batterie di prompt (i quesiti per gli agenti intelligenti) sempre più specializzati. In breve tempo abbiamo già verificato come al desk delle testate si stiano affermando figure professionali come il prompt ingeneer o il social media tutor che affianca e sorveglia le attività dei dispositivi automatici.

Lo stesso processo si sta verificando nel ciclo produttivo dell’audiovisivo, dove già in questi pochi mesi, abbiamo visto come l’intelligenza artificiale sia diventata un co-produttore multimediale. Se la Tv e il cinema non sono più l’allineamento del senso comune dei cittadini sulla frontiera di minor resistenza sociale, come argutamente scriveva Manuel Castells nella sua trilogia la Società in Rete, in cui in maniera sempre meno autoritaria e verticistica autori ed editori ridisegnavano il senso comune delle tribù di una platea, ma stanno invece diventando una costante conversazione fra produttore che diviene utente dei dati dei suoi singoli spettatori, e utenti, che diventano produttori di quelle informazioni, allora l’industria cinematografica – per tornare alle categorie di base di Francoforte – non può ripensarsi proprio in base alla capacità di diluire la rigidità autoriale in una dialettica fluida determinata da invisibili confini fra la profilazione e la sintonia di uno spettacolo con i propri spettatori. Ricorrere a potenze di calcolo che producono intelligenza sulla base di dati è la linea su cui incamminarsi. Per cogliere questa linea di demarcazione che rappresenta oggi il nuovo tratto del sistema audiovisivo, bisogna inevitabilmente combinare e contaminare i mondi diversi dell’informatica e della sociologia mass mediologica.

La distinzione fra un operatore di mercato, che vuole estrarre valore commerciale dal suo esercizio, e uno di servizio pubblico che vuole rispondere ad un contratto sociale con i suoi utenti, sta proprio nella qualità e trasparenza di uso dei dati, non nella volontà di farne a meno. Nella pubblicazione curata da Flavia Barca per l’ufficio Studi della Rai, Algoritmi di servizio pubblico, constato come con non molti precedenti si individui questa realtà come prescrittiva proprio per un’azienda di pubblica utilità.

Si legge nel volume come sia ormai, e finalmente aggiungo io, “inevitabile quindi che una delle grandi sfide per i media di servizio pubblico nella prossima decade risieda nel passaggio dall’immagine in movimento (film, serie tv) all’immagine interattiva (videogiochi, storie non lineari) che rimanda a quello, già accaduto agli albori della televisione, dall’immagine statica all’immagine in movimento. Per questa ragione, nonostante le quote di ascolto ancora assolutamente rilevanti della Radiotelevisione di servizio pubblico, in particolare nel nostro Paese, appare comunque urgente indagare nuovi linguaggi, piattaforme e metodologie di coinvolgimento del pubblico”. Siamo ancora ben al di là del Rubicone dell’abbinamento ad ogni singolo utente, e della capacità di raccolta ed elaborazione dati con moduli e stili del tutto discontinui rispetto alle speculazioni proprietarie, ma comunque si scorge una volontà di uscire dalla trincea di una TV generalista ancora protetta solo da una testimonianza anagrafica che la rende in palesa controtendenza rispetto alle nuove generazioni del nostro tempo. Soprattutto se leggiamo ancora nella stessa pagina del report dell’Ufficio studi della Rai che “miliardi di persone nel mondo hanno ormai superato la storicizzata passività contemplativa del programma televisivo-a favore di una partecipazione attiva che influenza l’atto creativo dell’opera attraverso una serie di scelte di fronte alle quali il pubblico viene posto e dalle cui risultanze individuali e collettive dipenderà l’esistenza stessa dell’esperienza “. Irrompe qui nella grammatica professionale della Rai la relazione con il singolo utente e soprattutto la visione di una progressiva e inesauribile partnership già nella fase ideativa e produttiva fra editore, autore e pulviscolo degli utenti. Una conversazione in cui si tende ormai a superare, scrivono ancora i ricercatori dell’azienda pubblica, “la cristallizzazione fra produttore e consumatore”.

È la traduzione in italiano di quella mediamorfosi che sta riorganizzando l’officina della tv, e in cui l’esplosione di una risorsa quale appunto l’intelligenza artificiale permette di artigianalizzare, se ci possiamo consentire una tale temeraria terminologia, il calcolo di ingenti masse di dati nell’elaborazione di produzioni e programmazioni anche di entità minore. In questa prospettiva le fasi della ideazione, della stesura di un soggetto, della sceneggiatura, delle schede di regia, delle tracce di montaggio e dei piani di distribuzioni diventano costantemente forme di un dialogo che vedranno sempre più estendersi il ruolo di una elaborazione artificiale per assicurare una produzione aumentata in ogni economia di scala.

Arriviamo così ad un nodo che già è pratica corrente nei processi di automatizzazione del ciclo industriale e della commercializzazione: come imprimere un timbro socialmente consapevole e nazionalmente autonomo all’evoluzione automatica di attività basate su un machine learning che, lo abbiamo visto, tende a soverchiare passo e metriche delle esperienze artigiane? In sostanza come, tanto più in un contesto pubblico, rendere autonoma e non automatica la fase di irrobustimento delle capacità di calcolo e di riformulazione della progettazione in virtù della relazione con l’utenza, basate appunto su algoritmi di auto apprendimento tale che non sia una esperienza di omologazione ma di partecipazione critica?

È questo il terreno in cui il titolo del rapporto che abbiamo citato – Algoritmi di servizio pubblico – deve diventare una pratica del tutto originale e prototipale a cui orientare il nuovo contratto di servizio fra la Rai e lo Stato. Un documento che deve prendere atto che i diritti di cittadinanza e la qualità dell’informazione oggi sono costituiti dalla consapevolezza e dalla piena padronanza di quello scambio fra dati e intelligenze che viene reso oscuro e privato dai proprietari delle grandi piattaforme, mentre il servizio pubblico deve rendere trasparente e condiviso.

Uno scenario in cui la comunità editoriale diventa soggetto negoziale dei dispositivi di calcolo sia nella fase della raccolta dei dati, che deve essere trasparente e condivisa con gli utenti, sia in quella della loro tracciabilità, che deve essere documentata e isolabile dal flusso generale, sia soprattutto in quella del corredo etico e finalistico dell’apparato digitale che deve essere riprogrammabile e negoziale costantemente per non delegare al fornitore l’anima di un’interattività che richiederebbe di superare “la storicizzata passività” del vecchio pubblico, con la “matematica certezza” di condizionamento della nuova moltitudine digitale, di cui parlava il buon Sherlock Holmes.

Forse i consiglieri di amministrazione della Rai, e i loro maggior enti che dall’esterno stanno giocando ancora una volta agli apprendisti stregoni nel rifare il vertice aziendale, dovrebbero fare un salto a Milano alla mostra di Hieronymus Bosch. Potrebbero, con lo straordinario ed evidentissimo linguaggio di un artista globale che percepisce il cambiamento, capire come si organizzano i nuovi linguaggi in un passaggio epocale che anche in quell’occasione si è realizzato in pochi anni, passando dal classicismo cinquecentesco di Michelangelo e Brunelleschi, al mondo del calcolo di Giordano Bruno, Galileo, Leibniz e Pascal del 600.

I nodi che sono stati posti in consiglio nei confronti dell’amministratore delegato Carlo Fuortes, non possono essere piegati solo a una misera operazione di sostituzione. Basterebbe molto meno per sintonizzare il settimo piano di Viale Mazzini al vento governativo.

Due sono le questioni che Sanremo ha reso ineludibili: la transizione dal broacasting al browsing, ossia dal modello tradizionale di TV generalista di massa a un sistema di navigazione individuale in rete; il ruolo di un servizio pubblico in uno scenario in cui la comunicazione digitale afferisce non più solo allo scontro politico interno, quanto alla sicurezza internazionale e sovranità di un paese. L’unica cosa che sicuramente non si può immaginare è che queste questioni riguardino i dirigenti e non gli assetti organizzativi dell’azienda pubblica.

Vedo invece una tendenza a cercare di derubricare tutto alla semplice aggiunta di un ufficio dati che dovrebbe raccogliere e analizzare le informazioni, adeguando così il sistema radiotelevisivo pubblico al mondo della rete.

Proprio quanto sta accadendo in Ucraina, quella che è stata definita la prima guerra algoritmica della storia, ci dice che ormai il sistema della comunicazione multimediale non è più un semplice servizio che completa la gestione del potere da parte dei gruppi prevalenti di un Paese, ma è il campo di battaglia fra potenze a livello globale. Come provo a dimostrare nel mio testo Net-War. Ucraina: come il giornalismo sta cambiando la guerra, l’informazione è diventata logistica militare e si procede, lo ha teorizzato esplicitamente il capo di stato maggiore russo Gerasimov, interferendo nel senso comune di un Paese avversario.

Il presidio di questo scacchiere, ossia la capacità di tenere alta la soglia di interferenza da parte di soggetti ostili nel dibattito pubblico, diventa una mission primaria per un servizio pubblico che voglia rimanere centrale e indispensabile. Questo significa, lo ha mostrato la solita e inossidabile BBC, disperdersi nella rete, diventando una presenza che attraversa e irrompe nelle piattaforme prevalenti, combinando un’offerta di contenuti con una sorveglianza sui flussi esterni. Per fare questo ovviamente l’azienda deve cambiare radicalmente piattaforma funzionale e geometrie produttive, trasformandosi da sistema esclusivo di broadcasting, in cui si procede da uno a tanti, a una ramificazione di motori di contenuti che attivano conversazioni individuali con ogni singolo utente. La base di Rai Play ci offre più di un’occasione per procedere in questa mediamorfosi, con alle spalle un’esperienza e un patrimonio di linguaggi e contenuti.

La diversità di un servizio pubblico in rete sta proprio nella sua volontà di costruire un nuovo patto sociale con gli utenti, basato sulla piena tracciabilità e trasparenza dell’uso dei dati e al tempo stesso una continua rinegoziazione degli automatismi con soggetti quali ad esempio le comunità locali, e i centri di ricerca universitari oppure le categorie professionali, che debbono poter condividere proprio il patrimonio delle informazioni acquisite dal servizio pubblico per competere e contestare la centralità delle piattaforme commerciali.

Dall’altra parte il sistema generalista deve inevitabilmente semplificarsi, unificando la fabbrica, i centri di tutte le produzioni, in modalità digitale, e integrando la distribuzione che deve essere più complementare e meno competitiva al suo interno. Ripensare così l’offerta sulla base di grandi appuntamenti nazionali, di cui Sanremo è una delle opportunità, legando poi i palinsesti quotidiani con proposte meno ossessionate dall’audience e più complementari con i contenuti reticolari.

In questa logica è evidente che il capitale umano deve diventare causa ed effetto della trasformazione, importando nella pancia dell’azienda più competenze digitali, lungo tutta la filiera della progettazione, prototipazione, gestione e aggiornamento di dispositivi e sistemi digitali che possano accompagnare in rete l’ampia offerta aziendale. Mentre andrebbero finalmente attuate le strategie di collegamento con i centri di produzione e creatività territoriali, dando concretezza all’ambizione per cui la Rai deve far lavorare il Paese e non sé stessa.

Ora mi rendo conto del velleitarismo di una proposta che implica ovviamente una relazione del tutto inedita fra azienda e istituzioni, più mediata dalle strategie globali del Paese in termini di cybersecurity e di competizione internazionale che di una miope propaganda interna. Ma in una fase in cui ci si interroga sull’utilità della politica, constatare che vi possano essere orientamenti che reclamano un partito che non c’è potrebbe aiutare quelli che ci sono e che rimangono in attesa di un elettorato che non c’è più.

2 https://www.businesswire.com/news/home/20221201005267/en/Generate-Biomedicines-Uses-AI-to-Create-Proteins-That-Have-Never-Existed

3 https://www.vaticannews.va/it/vaticano/news/2023-01/vaticano-ai-ethics-accademia-vita-intelligenza-artificiale.html