TestVelocita.it News Google apre le porte a un'intelligenza artificiale più sicura. Presenta il nuovo Gemma 2

Google apre le porte a un'intelligenza artificiale più sicura. Presenta il nuovo Gemma 2

Google presenta una serie di tre nuovi modelli di IA chiamati Gemma 2, che sottolineano sicurezza, trasparenza e accessibilità. Il modello Gemma 2 2B è ottimizzato per computer comuni, ShieldGemma protegge contro i contenuti tossici e Gemma Scope consente un'analisi dettagliata del funzionamento dei modelli. Google si impegna così a democratizzare l'IA e a costruire fiducia.

Google apre le porte a un'intelligenza artificiale più sicura. Presenta il nuovo Gemma 2

Google si inserisce nella lotta per un'intelligenza artificiale più etica e trasparente. A tal fine, ha rilasciato una serie di tre nuovi modelli IA generativi chiamati Gemma 2, che promettono maggiore sicurezza, minori esigenze hardware e funzionamento più fluido.

La sicurezza al primo posto

A differenza dei modelli Gemini, che Google utilizza per i propri prodotti, la serie Gemma è destinata a un uso più libero da parte di sviluppatori e ricercatori. Simile al progetto Llama di Meta, anche Google cerca di costruire fiducia e collaborazione nel campo dell'IA.

Il primo nuovo arrivo è il modello Gemma 2 2B, destinato alla generazione e analisi del testo. Il suo principale vantaggio è la possibilità di essere eseguito anche su dispositivi meno performanti. Questo apre le porte a un suo utilizzo da parte di una vasta gamma di utenti. Il modello è disponibile tramite piattaforme come Vertex AI, Kaggle e Google AI Studio.

ShieldGemma: Guardiano contro i contenuti tossici

Il nuovo ShieldGemma ha introdotto una serie di classificatori di sicurezza il cui compito è identificare e bloccare i contenuti nocivi. Si tratta, ad esempio, di discorsi di odio, molestie e contenuti sessuali espliciti. In breve, ShieldGemma funziona come un filtro che controlla sia i dati di input per il modello, sia i suoi output.

L'ultimo arrivo è Gemma Scope, uno strumento che consente un'analisi dettagliata del funzionamento del modello Gemma 2. Google lo descrive come un insieme di reti neurali specializzate che scompongono le informazioni complesse elaborate dal modello in una forma più comprensibile.

I ricercatori possono così comprendere meglio come Gemma 2 identifica i modelli, elabora i dati e genera i risultati. Il rilascio dei modelli Gemma 2 arriva poco dopo che il Dipartimento del Commercio degli Stati Uniti ha sostenuto i modelli IA aperti nel suo rapporto.

Questi rendono l'IA generativa accessibile a piccole imprese, organizzazioni non profit e sviluppatori indipendenti. Inoltre, l'ufficio ha evidenziato la necessità di strumenti per monitorare e regolamentare questi modelli al fine di minimizzare i rischi potenziali.

Blackout digitale. ChatGPT, Sora, Instagram e Facebook non funzionavano. Milioni di utenti si sono ritrovati senza accesso ai servizi preferiti. I blackout hanno rivelato la fragilità del mondo online e la dipendenza dalla tecnologia. OpenAI ha affrontato problemi con i server, mentre Meta ha gestito un blackout globale. Cosa sta succedendo dietro le quinte dei giganti tecnologici?

Vuoi che tuo figlio impari le basi della programmazione in modo divertente e accessibile? Scratch è il punto di partenza ideale. Questo linguaggio di programmazione visivo permette ai bambini di creare giochi, animazioni e storie senza la necessità di scrivere codice complesso. Impareranno le basi del pensiero logico e della creatività e si apriranno le porte alla vera programmazione.

Wi-Fi 6, l'ultimo standard delle reti wireless, porta una rivoluzione nella velocità, capacità ed efficienza. Grazie a nuove tecnologie come OFDMA, MU-MIMO e BSS Coloring, può offrire una capacità quintupla e supportare più dispositivi simultaneamente. Scopri come Wi-Fi 6 può aiutarti a casa e in ufficio.

La programmazione non riguarda solo la scrittura di codice, ma è un percorso per sviluppare il pensiero logico e la creatività. Scopri come puoi introdurre i bambini al mondo della programmazione in modo divertente, dai semplici linguaggi a blocchi fino alla programmazione reale.

I follower falsi sono come un doping digitale – un'autostrada verso la popolarità che ha conseguenze devastanti. Scopri con noi il lato oscuro del marketing degli influencer, dove per poche centinaia di corone si possono acquistare migliaia di seguaci. Qual è l'impatto di questo fenomeno sui brand, la società e soprattutto sulle giovani generazioni?

OpenAI investe un milione di dollari nella ricerca presso la Duke University, con l'obiettivo di sviluppare algoritmi che prevedano i giudizi morali degli esseri umani. Il team di ricerca ha già creato un sistema AI per decisioni sui trapianti. Tuttavia, i sistemi AI attuali operano solo su base statistica e mancano di una vera comprensione dell'etica. Inoltre, diversi sistemi AI adottano posizioni filosofiche differenti sulla moralità.