Meta-modellen geven (letterlijk) stem aan AI in 1.100 talen

Nieuwe AI-taalmodellen van Meta kunnen ruim duizend talen herkennen en spreken. Spraakbesturing en realtime mens-computerinteractie komt zo heel dichtbij.
Gisteren publiceerde Meta de broncode van het AI-model dat 1.107 talen kan verstaan en spreken en in totaal vierduizend talen herkent. Onderzoekers van het bedrijven hopen met de publicatie van hun broncode wetenschappelijk werk te faciliteren dat uiteindelijk leidt tot een overkoepelend model voor alle talen.
In de wereld worden zo’n zevenduizend talen gesproken, maar bestaande taalmodellen, zoals die van OpenAI (Whisper) en Google, zijn bedreven in honderd daarvan. Dat is omdat computers handmatig toegevoegde labels nodig hebben om talen te leren snappen. De Meta-onderzoekers gebruikten audio. Ze lieten sprekers het Nieuwe Testament voorlezen en voerden dat aan een zelfontwikkelde AI-model met een goed bewezen begrijpertje.
Uiteindelijk gebruikte Meta een half miljoen uur voorleestijd uit meer dan 1.400 talen.
De data kunnen worden gebruikt om apps te maken die gesproken taal snappen en uiten, maar ook om kennisgaten in niet-geclassificeerde talen vullen als een soort steen van Rosetta.
Het werk van de AI-wetenschappers van Facebook wordt met groot enthousiasme ontvangen. Reden: ze publiceren al hun digitale grondstoffen, hun bronmateriaal. Anderen kunnen dat downloaden, wijzigen, verfijnen en verbeteren en daar eigen apps mee maken. Zo werd ook het taalmodel LLaMA met enthousiasme ontvangen. Dat is een vrij beschikbare, concurrerende variant op ChatGPT. Onderzoekers aan Stanford bouwden daarmee hun model Alpaca, een ChatGPT-kloon op basis van LLama. De training daarvan kostte driehonderd dollar, versus de vele miljoenen die het OpenAI kostte om hetzelfde te realiseren.
Foto: Garry Knight (cc)

Lees hier het bericht