Meta heeft een nieuwe collectie AI -modellen, LLAMA 4, uitgebracht in de familie Lama – op een zaterdag, niet minder.
Er zijn in totaal vier nieuwe modellen: LLAMA 4 Scout, Lama 4 Maverick en LLAMA 4 Behemoth. Allen werden getraind op “grote hoeveelheden niet -gelabelde tekst, afbeelding en videogegevens” om ze “breed visueel begrip” te geven, zegt Meta.
Het succes van open modellen van het Chinese AI Lab Deepseek, die op gelijke voet presteren of beter dan de vorige vlaggenschip Lama -modellen van Meta, schopte naar verluidt Lama -ontwikkeling in overdrive. Van Meta zou oorlogsruimtes hebben om te ontcijferen hoe Deepseek de kosten van het hardlopen en de inzet van modellen zoals R1 en V3 heeft verlaagd.
Scout en Maverick zijn openlijk beschikbaar op LLAMA.com en van de partners van Meta, waaronder het AI Dev -platform knuffelen, terwijl Behemoth nog steeds in training is. Meta zegt dat Meta AI, zijn AI-aangedreven assistent in apps, waaronder WhatsApp, Messenger en Instagram, is bijgewerkt om LLAMA 4 in 40 landen te gebruiken. Multimodale functies zijn voorlopig beperkt tot de VS in het Engels.
Sommige ontwikkelaars kunnen de licentie van LLAMA 4 hebben.
Gebruikers en bedrijven die “domiciliseerden” of met een “hoofdsom van het bedrijfsleven” in de EU zijn verboden de modellen te gebruiken of te distribueren, waarschijnlijk het resultaat van bestuursvereisten opgelegd door de AI- en gegevensprivacywetten van de regio. (In het verleden heeft Meta deze wetten als overdreven belastend beschreven.) Bovendien moeten bedrijven met meer dan 700 miljoen maandelijkse actieve gebruikers, net als bij eerdere Lama -releases, een speciale licentie van META aanvragen, die Meta naar eigen goeddunken kan verlenen of ontkennen.
“Deze LLAMA 4 -modellen markeren het begin van een nieuw tijdperk voor het lama -ecosysteem,” schreef Meta in een blogpost. “Dit is nog maar het begin voor de Lama 4 -collectie.”

Meta zegt dat LLAMA 4 het eerste cohort van modellen is die een mengsel van experts (MOE) -architectuur gebruiken, die meer computationeel efficiënter is voor training en beantwoorden van vragen. MOE -architecturen splitsen in principe gegevensverwerkingstaken op in subtaken en delegeren ze vervolgens aan kleinere, gespecialiseerde “expert” -modellen.
Maverick heeft bijvoorbeeld 400 miljard totale parameters, maar slechts 17 miljard actief Parameters over 128 ‘experts’. (Parameters komen ongeveer overeen met de probleemoplossende vaardigheden van een model.) Scout heeft 17 miljard actieve parameters, 16 experts en 109 miljard totale parameters.
Volgens de interne tests van Meta, is Maverick, waarvan het bedrijf zegt dat het beste is voor “algemene assistent en chat” -cases zoals creatief schrijven, groter dan modellen zoals OpenAI’s GPT-4O en Google’s Gemini 2.0 over bepaalde codering, redeneren, multilingual, lange-context en beeldbankmarks. Maverick meet echter niet helemaal tot meer capabele recente modellen zoals Google’s Gemini 2.5 Pro, het Claude 3.7-sonnet van Anthropic en GPT-4.5 van Openai.
De sterke punten van Scout liggen in taken zoals het samenvatten van documenten en redeneren over grote codebases. Uniek, het heeft een zeer groot contextvenster: 10 miljoen tokens. (“Tokens” vertegenwoordigen stukjes ruwe tekst – bijvoorbeeld het woord “fantastische” opgesplitst in “fan”, “tas” en “tic”)) In gewoon Engels kan Scout beelden opnemen en tot miljoenen woorden, waardoor het kan worden verwerken en werken met extreem lange documenten.
Scout kan worden uitgevoerd op een enkele NVIDIA H100 GPU, terwijl Maverick een NVIDIA H100 DGX -systeem of equivalent vereist, volgens de berekeningen van Meta.
De niet -uitgebrachte kolos van Meta heeft nog vleziger hardware nodig. Volgens het bedrijf heeft Behemoth 288 miljard actieve parameters, 16 experts en bijna twee biljoen totale parameters. De interne benchmarking van Meta heeft kolos beter dan GPT-4.5, Claude 3.7 Sonnet en Gemini 2.0 Pro (maar niet 2.5 Pro) over verschillende evaluaties die STEM-vaardigheden meten, zoals wiskundeprobleemoplossing.
Merk op dat geen van de LLAMA 4-modellen een goed “redeneer” -model is in de trant van Openai’s O1 en O3-Mini. Redeneringsmodellen Controleer hun antwoorden en reageren in het algemeen op betrouwbaarder op vragen, maar duurt het bijgevolg langer dan traditionele, “niet-herhaling” -modellen om antwoorden te leveren.

Interessant is dat Meta zegt dat het alle Lama 4 -modellen heeft afgestemd om te weigeren ‘omstreden’ vragen minder vaak te beantwoorden. Volgens het bedrijf reageert Lama 4 op “gedebatteerde” politieke en sociale onderwerpen die de vorige oogst van Lama -modellen niet zou doen. Bovendien, zegt het bedrijf, is LLAMA 4 “dramatisch meer evenwichtig” waarmee het ronduit wordt gevraagd, niet zal entertainen.
‘[Y]u kan op rekenen [Lllama 4] Om nuttige, feitelijke antwoorden zonder oordeel te bieden, ‘vertelde een woordvoerder van Meta aan TechCrunch.'[W]E’re blijft lama responsiever maken, zodat het meer vragen beantwoordt, kan reageren op verschillende verschillende gezichtspunten […] en geeft geen voorkeur aan sommige opvattingen over anderen. “
Die tweaks komen zoals sommige bondgenoten van het Witte Huis AI Chatbots ervan beschuldigen te politiek ‘wakker te zijn’.
Veel van de naaste vertrouwelingen van president Donald Trump, waaronder miljardair Elon Musk en Crypto en AI “Tsaar” David Sacks, hebben beweerd dat populaire AI Chatbots Censor conservatieve opvattingen. Sacks heeft historisch gezien het chatgpt van Openai uitgekozen als “geprogrammeerd om wakker te worden” en onwaarzaam over politiek onderwerp.
In werkelijkheid is bias in AI een hardnekkig technisch probleem. Musk’s eigen AI -bedrijf, Xai, heeft moeite om een chatbot te creëren die geen enkele politieke opvattingen over anderen onderschrijft.
Dat heeft bedrijven, waaronder Openai, niet tegengehouden om hun AI -modellen aan te passen om meer vragen te beantwoorden dan ze eerder zouden hebben, met name vragen met betrekking tot controversiële onderwerpen.