ChatGPT 5 vista da ChatGPT
L'ultima evoluzione dell'intelligenza artificiale conversazionale
Uno scenario che forse in molti si sarebbero aspettati e che, di fatto, sta prendendo sempre più forma. L’intelligenza artificiale, con le sue infinite possibilità, è ormai uno strumento nelle mani di tutti, anche di chi ne fa un uso poco etico. Secondo quanto viene riportato da Reuters, OpenAI (azienda pioneristica del settore) si è trovata costretta a disporre del ban nei confronti di numerosi account cinesi dopo aver scoperto che ChatGPT veniva sfruttato per scopi decisamente controversi.
Secondo quanto riportato dalle fonti, alcuni utenti avrebbero utilizzato il chatbot di OpenAI per il debug e la modifica di un codice destinato a un software di sorveglianza sui social media. L’obiettivo? Monitorare il sentimento anti-cinese sulle principali piattaforme come Facebook, YouTube, Instagram e X. Un'operazione che, secondo l'azienda che ha condotto le indagini, sarebbe stata gestita da una rete di account attivi in orari perfettamente allineati con la giornata lavorativa asiatica.
Un dettaglio che lascia poco spazio ai dubbi: dietro non ci sarebbe un'azione automatizzata, ma una strategia coordinata. Non è la prima volta che emergono casi simili ma, secondo Ben Nimmo, ricercatore principale di OpenAI, questo episodio rappresenta il primo caso noto in cui ChatGPT è stato impiegato per modificare malevolmente un software preesistente, provocando così il ban degli account coinvolti in tale pratica. Le analisi rivelano che il sistema di monitoraggio utilizzato per la sorveglianza si basava su una versione open-source di un modello Llama di Meta. Tuttavia, l'azienda non ha rivelato quanti di questi account siano stati effettivamente bloccati dal servizio, e non ha nemmeno reso noto il periodo esatto dell’operazione.
Il governo degli Stati Uniti ha manifestato seria preoccupazione riguardo al possibile uso improprio dell’intelligenza artificiale, evidenziando i rischi legati alla manipolazione dell’opinione pubblica, alla sorveglianza di massa e alle frodi online. Tuttavia, le criticità non si fermano qui. L’AI sta ridisegnando il mercato del lavoro, sollevando interrogativi sulla perdita di occupazione e sull’etica dei sistemi decisionali automatizzati. In ambito di sicurezza informatica, poi, l’intelligenza artificiale si sta dimostrando un’arma a doppio taglio: se da un lato aiuta a prevenire attacchi e a individuare minacce, dall’altro può essere sfruttata per sviluppare malware avanzati e campagne di phishing.
Il dibattito è perciò ampiamente aperto: regolamentare l’IA sta diventando una priorità per governi e organizzazioni internazionali, chiamati a bilanciare progresso tecnologico da un lato, e tutela dei diritti fondamentali dall'altro. In questo senso, le acque si stanno smuovendo anche in altri settori.
Nel panorama editoriale, ad esempio, si sta intensificando il dibattito sull’autenticità delle opere letterarie: chi può garantire che un libro sia davvero frutto della creatività umana e non di un algoritmo? Per rispondere a questa esigenza, negli Stati Uniti è nata l’iniziativa Human Authored. Il progetto, lanciato dalla Authors Guild, la più antica e importante organizzazione per scrittori, prevede l’introduzione di un marchio distintivo che certifica i libri scritti interamente da autori umani. Un bollino, visibile sulle copertine e nei materiali promozionali, pensato per garantire trasparenza e per riaffermare il valore dell’ingegno umano in un’epoca in cui l’AI sembra poter scrivere qualsiasi cosa - o quasi. Nel frattempo, la Cina non resta a guardare: di recente, infatti, è stato annunciato il lancio di DeepSeek, un nuovo competitor asiatico di ChatGPT.
Non limitarti alla lettura: trasforma l'ispirazione in azione! Scarica KuriU e inizia subito la tua avventura.
ARTICOLO A CURA DI VALERIA GIRARDI