Annunci su ChatGPT: l'ultima goccia che ha fatto abbandonare il lavoro a OpenAI
OpenAI, la società di intelligenza artificiale (AI) guidata da Sam Altman, ha iniziato a testare la pubblicità su ChatGPT, il modello linguistico di punta del gruppo.
OpenAI, la società di intelligenza artificiale (AI) guidata da Sam Altman, ha iniziato a testare la pubblicità su ChatGPT, il modello linguistico di punta del gruppo. La notizia ha suscitato scalpore dopo che Zoe Hitzig, ex ricercatrice presso l'azienda, ha annunciato di aver rassegnato le dimissioni dopo due anni di lavoro. Hitzig, che ha contribuito a plasmare le politiche di sicurezza e il prezzo dei modelli AI, ha espresso preoccupazioni riguardo alla strategia aziendale che sembra abbandonare i principi iniziali. La sua decisione arriva in un momento in cui il settore dell'AI si confronta con la necessità di bilanciare accesso democratico e sostenibilità economica, un tema che ha visto dibattiti intensi nel mondo tecnologico. La pubblicità su ChatGPT, se introdotta, potrebbe rappresentare un cambio di rotta rispetto all'approccio etico che aveva guidato la crescita iniziale dell'azienda.
La decisione di Hitzig si inserisce in un contesto di crescente tensione tra innovazione e responsabilità. Secondo la ricercatrice, l'implementazione di pubblicità su ChatGPT potrebbe compromettere l'unicità del servizio, che finora ha permesso agli utenti di interagire con un'entità priva di agenda. I dati raccolti dagli utenti, tra cui confidenze su salute, relazioni e credenze personali, costituiscono un archivio senza precedenti. Hitzig sottolinea che l'introduzione di annunci potrebbe sfruttare queste informazioni per manipolare gli utenti in modi imprevedibili, un rischio che non è stato sufficientemente valutato. La sua preoccupazione è che OpenAI, pur dichiarando di rispettare principi di trasparenza, possa abbandonarli per motivi economici. L'azienda, infatti, ha bisogno di sostenere i costi elevati della ricerca e dello sviluppo, un fattore che potrebbe spingerla a priorizzare la crescita del business rispetto al benessere degli utenti.
Il dibattito sull'uso della pubblicità nell'AI non è nuovo. Hitzig riferisce che il settore ha sempre affrontato un dilemma tra accesso limitato a tecnologie trasformative e la necessità di finanziarle attraverso modelli commerciali. Tuttavia, lei sostiene che questa scelta non sia inevitabile. Secondo la ricercatrice, esistono alternative che permettono di mantenere l'accesso democratico senza sfruttare i dati degli utenti. Ad esempio, modelli di sussidio reciproco, in cui i profitti di un servizio vengono utilizzati per garantire l'accesso gratuito a chi non può permetterselo. Questo approccio, ispirato a infrastrutture pubbliche come le telecomunicazioni, potrebbe evitare di creare dipendenze patologiche tra gli utenti e i sistemi AI. Hitz, tuttavia, riconosce che il rischio di manipolazione resta elevato, soprattutto se le aziende non riescono a controllare l'uso dei dati.
L'esperienza di Facebook, che ha visto la perdita di fiducia degli utenti a causa di politiche di privacy e dati, serve da monito. OpenAI, pur avendo dichiarazioni di principio, potrebbe seguire una via simile, soprattutto se l'obiettivo è massimizzare il traffico utenti per generare ricavi. Hitzig sottolinea che il modello pubblicitario incentiva l'ottimizzazione dell'engagement, spesso a scapito della trasparenza. Questo potrebbe portare a comportamenti inaspettati, come la creazione di dipendenze psicologiche o l'incoraggiamento di idee estreme. La ricercatrice cita casi documentati di "psicosi chatbot" e di comportamenti suicidi legati all'uso di ChatGPT, evidenziando come la manipolazione non sia solo un rischio teorico. Per evitare scenari simili, Hitzig propone un sistema di governance rigoroso, con organi indipendenti che possano supervisore l'uso dei dati e l'impatto sociale delle tecnologie.
La soluzione, secondo Hitzig, richiede un'innovazione strutturale. L'AI non può essere gestita solo da aziende, ma deve coinvolgere enti pubblici e rappresentanze degli utenti. Propone modelli come i trust o le cooperative, in cui i dati degli utenti siano controllati da soggetti indipendenti che agiscono al loro servizio. Questi strumenti, ispirati a esempi come il MIDATA, potrebbero garantire un equilibrio tra innovazione e protezione. Tuttavia, Hitzig riconosce che non esiste un'unica soluzione e che il tempo per agire è limitato. Il rischio, infatti, è che l'AI diventi un'arma di manipolazione o un'innovazione accessibile solo a chi può permettersela. La sfida, per il settore, è trovare un modello che rispetti l'etica senza compromettere la crescita tecnologica. La strada, sebbene complessa, sembra essere possibile, ma richiede un impegno collettivo e una visione lungimirante.
Fonte: The New York Times Articolo originale
Articoli Correlati
Da Centocelle al Pigneto: piano Ama su misura per pulire le strade del municipio
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Oracle annuncia migliaia di licenziamenti per crisi di liquidità da investimenti aggressivi in IA
4 giorni fa