Published on

I prossimi modelli Llama di Meta potrebbero avere funzionalità vocali avanzate

Authors
  • avatar
    Name
    Tech Istantenews
    Twitter

Riassunto

Meta sta per lanciare il suo prossimo modello AI "aperto" con un focus particolare sulle funzionalità vocali. Secondo recenti indiscrezioni, il modello Llama 4, che dovrebbe arrivare nelle prossime settimane, introdurrà miglioramenti significativi nelle capacità vocali. Uno degli aspetti più interessanti è la possibilità per gli utenti di interrompere il modello durante il discorso, una funzionalità simile a quella offerta da OpenAI con la modalità vocale di ChatGPT e dall'esperienza Gemini Live di Google.

Durante una conferenza di Morgan Stanley, il chief product officer di Meta, Chris Cox, ha descritto Llama 4 come un modello "omni", capace di interpretare e produrre sia parlato che testo e altri tipi di dati in modo nativo. Questo rappresenta un passo avanti significativo rispetto ai modelli precedenti, che erano principalmente focalizzati sul testo.

Il successo dei modelli aperti del laboratorio di AI cinese DeepSeek, che hanno dimostrato di essere pari o superiori ai modelli Llama di Meta, ha spinto lo sviluppo di Llama in una fase di accelerazione. Meta ha dovuto lavorare intensamente per capire come DeepSeek è riuscito a ridurre i costi di esecuzione e implementazione dei modelli. Questo ha portato alla creazione di "war rooms" interne per decifrare le strategie di ottimizzazione di DeepSeek.

Questo nuovo modello rappresenta un passo importante per Meta nel campo dell'intelligenza artificiale, dimostrando il loro impegno nel rimanere competitivi in un settore in rapida evoluzione. Con Llama 4, Meta punta a offrire un'esperienza utente più naturale e interattiva, sfruttando al massimo le potenzialità della tecnologia vocale.