De makers van het populaire open source AI-model Stable Diffusion publiceren versie 2. Dit maakt de creatie mogelijk van nieuwe vormen van synthetische media, media die door machines zijn gemaakt in opdracht van mensen.
In de komende dagen rolt Stability AI, het bedrijf achter Stable Diffusion en DreamStudio, een bijgewerkte versie van zijn ‘mediagenerator’ uit. In een blog leggen de ontwikkelaars de toevoegingen uit aan deze nieuwe punteditie.
Het gaat om een nieuwe tekstencoder. Deze snapt beter wat zijn menselijke opdrachtgevers bedoelen. Stable Diffusion is immers een systeem dat op grond van een geschreven opdracht een ‘foto’ probeert te genereren. Hoe verfijnder de opdracht, hoe gerichter computer kan werken. Een andere vernieuwing is een filter dat herkent of bronbeeld toevallig geen watermerk of menselijk bloot bevat of bepaalde ‘toxische content’.
Ook de resolutie van de beelden wordt aangepakt met de introductie van een super-resolution upscaler. Tevens wordt een model toegevoegd dat betere dieptewerking in de beelden opwekt. Daardoor ogen ze echter.
Gespecialiseerde ontwikkelaars en onderzoekers hebben versie 1 afgelopen augustus destijds al met razend enthousiasme ontvangen. Enerzijds vanwege het open source en gratis karakter, anderzijds vanwege de kwaliteit. Het had in no time tienduizend sterren op Github. Versie 2 zitten binnen twaalf uur al op een kleine tweeduizend sterren.
De communitygedreven open source start-up Stability AI uit Engeland haalde eind oktober 101 miljoen dollar venture capital op.