Ook Tesla gaat AI-taalmodellen bouwen

Tesla gaat zijn supercomputer binnenkort ook trainen met tekst, naast de video’s die het reeds betrekt uit miljoenen auto’s.
Dat blijkt uit een vacature die onlangs verscheen. Daarin geeft de automaker aan specifiek op zoek te zijn naar specialisten die grote taalmodellen kunnen draaien op de Tesla-cloud.
“Je taak: het opzetten en trainen van grote taalmodellen, zoals BERT en GPT-3, en andere neurale netwerken.” Hiervoor gebruikt Tesla Pytorch, open source-techniek uit de stal van Facebook.
BERT is een taalmodel van Google dat onder meer achter Google Search en Huggingface uit.
Modellen als BERT en GPT zijn getraind op geschreven taal. Tesla’s eigen modellen zijn getraind op beeld. Conceptueel sluiten die twee op elkaar aan en ontstaat er een AI-model dat ‘beter begrijpt’. Welk doel de autofabrikant hiermee heeft, is niet bekend.
Foto: Chris Yarzab (cc)

Lees hier het bericht