(Adnkronos) – Nella cornice del We Make Future a Rimini, Intel ha tenuto un evento dedicato alla sua "Responsible AI", : Walter venerdì alle 16:30 sarà sul palco centrale dell'evento per un incontro dedicato alla "Responsible AI", la strategia dell'azienda pensata per sfruttare il proprio posto nella catena del valore dell'intelligenza artificiale, così da promuovere progressi significativi e aumentare gli sforzi su larga scala. Tra i temi trattati sul palco da Walter Riviera, AI Technical Lead EMEA di Intel, una demo della tecnologia FakeCatcher, la piattaforma per la rilevazione in tempo reale dei deepfake sviluppata da Intel. Parlandone con AdnKronos, Riviera spiega la visione dell'azienda sulla IA generativa: "L'intelligenza artificiale per Intel è una priorità massima, non solo dal punto di vista dell'aspetto tecnologico: la IA porta con sé un fascino innegabile, ma non tanto da dimenticare che bisogna farne un uso responsabile. Siamo tra le prime compagnie che oltre a fornire un portafoglio ricchissimo di hardware e software per realizzare questo tipo di tecnologie, forniscono gli strumenti per fare in modo che vengano usate al meglio senza danneggiare le persone. Siamo tra le prime che hanno fatto partire un'iniziativa in tal senso, Responsible AI, che prevede diversi sforzi: uno tra i quali è il fake catcher, che non è altro che uno strumento basato su intelligenza artificiale che si pone la domanda di cosa ci rende umani. Fondamentalmente, cosa ci rende veri". "La circolazione sanguigna crea delle micro variazioni di colore sulla nostra pelle e la nostra carnagione, e questo è già un fattore discriminante importante, che nessuna intelligenza artificiale o deep fake possono attualmente replicare. Il secondo aspetto è che molti video sintetici e generati da intelligenza artificiale racchiudono delle relazioni, tipo quella tra i due bulbi oculari, che non sono costanti come invece dovrebbero essere. Abbiamo insegnato a una macchina a osservare questi aspetti al fine di identificare i contenuti sintetici. Non è l'unico sforzo per il Responsible AI, abbiamo anche introdotto delle linee guida che ci aiutano a preoccuparci del come, non solo del cosa viene fatto, in termini di sviluppo dell'IA", continua Riviera. "In realtà, siamo portati a credere che una tecnologia come il deep fake porti con sé solamente aspetti negativi. Ma pensiamo a quanto può essere utile, ad esempio, per ricostruire in modo visivo una scena del crimine e fare indagini. È importante che queste tecnologie vengano sviluppate, ma che allo stesso tempo non producano contenuti ingannevoli che possano far credere alle persone ciò che non esiste. O pensiamo a un collaboratore dell'Antimafia che deve restare anonimo: con un deepfake controllato dall'intelligenza artificiale, il suo aspetto può essere modificato simultaneamente su tutte le immagini e i video presenti in Rete che lo ritraggono, anonimizzandolo senza nasconderlo". L'intelligenza artificiale salverà il mondo o distruggerà l'umanità? "Ragionare in termini allarmistici o troppo entusiastici è pericoloso. Serve tanta, tanta, consapevolezza. Noi come Intel stiamo sfruttando ogni opportunità che abbiamo per educare, per parlare. Abbiamo dato inizio a un programma che si chiama AI for Youth con il quale vogliamo educare le nuove generazioni, coinvolgiamo le scuole superiori, non solo le università, proprio per rendere pronti gli adulti di domani alla convivenza con l'intelligenza artificiale, che farà parte della vita di tutti i giorni", chiude Riviera. —tecnologiawebinfo@adnkronos.com (Web Info)