Meta‘s Llama in Amazon Bedrock

Die Zukunft der KI mit Llama gestalten

Jetzt neu: Llama 3.3

Llama 3.3 ist ein auf Befehle abgestimmtes 70B-Modell, das im Vergleich zu Llama 3.1 70B eine verbesserte Leistung bietet – und zu Llama 3.2 90B, wenn es für reine Textanwendungen verwendet wird. Llama 3.3 70B bietet eine ähnliche Leistung wie Llama 3.1 405B, benötigt aber nur einen Bruchteil der Rechenressourcen.

Das umfassende Training von Llama 3.3 70B führt zu einem soliden Verständnis und zu Generierungsfähigkeiten für verschiedene Aufgaben. Dieses Modell unterstützt leistungsstarke Konversations-KI, die für die Erstellung von Inhalten, Unternehmensanwendungen und Recherchen entwickelt wurde, und bietet erweiterte Sprachverständnisfunktionen, einschließlich Textzusammenfassung, Klassifizierung, Stimmungsanalyse und Codegenerierung.

Llama 3.2 90B ist das fortschrittlichste Modell von Meta und eignet sich ideal für Anwendungen auf Unternehmensebene. Llama 3.2 ist das erste Llama-Modell, das Vision-Aufgaben unterstützt. Es verfügt über eine neue Modellarchitektur, die Bild-Encoder-Darstellungen in das Sprachmodell integriert. Dieses Modell zeigt hervorragende Leistungen beim Allgemeinwissen, bei der Generierung von langen Texten, beim mehrsprachigen Übersetzen, beim Programmieren, in der Mathematik und beim Advanced Reasoning. Außerdem werden damit Image-Reasoning-Funktionen eingeführt, die ein anspruchsvolles Bildverständnis und visuelles Denken ermöglichen. Dieses Modell eignet sich ideal für die folgenden Anwendungsfälle: die Beschriftung von Bildern, das Auffinden von Bildern zu textlichen Beschreibungen, Visual Grounding, die Beantwortung von Fragen zu Bildern und visuelles Denken sowie die Beantwortung von Fragen zu Bildern in Dokumenten.

Llama 3.2 11B eignet sich gut für die Erstellung von Inhalten, die dialogorientierte KI, das Sprachverständnis und für Unternehmensanwendungen, die visuelles Denken erfordern. Das Modell zeigt eine starke Leistung bei der Textzusammenfassung, Stimmungsanalyse, Codegenerierung und der Befolgung von Anweisungen. Zusätzlich bietet es die Möglichkeit, über Bilder nachzudenken. Dieses Modell eignet sich ideal für die folgenden Anwendungsfälle: die Beschriftung von Bildern, das Auffinden von Bildern zu textlichen Beschreibungen, Visual Grounding, die Beantwortung von Fragen zu Bildern und visuelles Denken sowie die Beantwortung von Fragen zu Bildern in Dokumenten.

Llama 3.2 3B bietet ein persönlicheres KI-Erlebnis mit einer gerätegebundenen Verarbeitung. Llama 3.2 3B ist für Anwendungen ausgelegt, die Inferenzen mit niedriger Latenz und begrenzte Rechenressourcen erfordern. Es eignet sich hervorragend für die Zusammenfassung und Klassifizierung von Texten sowie für Sprachübersetzungen. Dieses Modell eignet sich ideal für die folgenden Anwendungsfälle: mobile, KI-gestützte Schreibassistenten und Kundendienstanwendungen.

Llama 3.2 1B ist das ressourcenschonendste Modell der Modellsammlung Llama 3.2 und eignet sich perfekt zum Abrufen und Zusammenfassen für Edge-Geräte und mobile Anwendungen. Es ermöglicht gerätegebundene KI-Funktionen, während zugleich der Datenschutz gewahrt und die Latenz minimiert wird. Dieses Modell eignet sich ideal für die folgenden Anwendungsfälle: Verwaltung personenbezogener Informationen und mehrsprachiger Abruf von Wissen.

Vorteile

Llama 3.2 bietet ein personalisierteres KI-Erlebnis mit einer gerätegebundenen Verarbeitung. Die Llama-3.2-Modelle sind effizienter, haben eine geringere Latenz sowie eine bessere Leistung und eignen sich daher für eine Vielfalt von Anwendungen.
Dank einer Kontextlänge von 128 000 kann Llama noch differenziertere Beziehungen in Daten erfassen.
Llama-Modelle werden mit 15 Billionen Token aus öffentlichen Online-Datenquellen trainiert, um sprachliche Feinheiten besser zu verstehen.
Llama 3.2 ist mehrsprachig und unterstützt acht Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.
Die verwaltete API von Amazon Bedrock macht die Verwendung von Lama-Modellen einfacher als je zuvor. Unternehmen aller Größen können auf die Leistungsfähigkeit von Llama zugreifen, ohne sich Gedanken über die zugrunde liegende Infrastruktur machen zu müssen. Da Amazon Bedrock Serverless ist, müssen Sie keine Infrastruktur verwalten. Sie können generative KI-Funktionen von Llama sicher in Ihre Anwendungen integrieren und bereitstellen, indem Sie die AWS-Services nutzen, mit denen Sie bereits vertraut sind. Das bedeutet, dass Sie sich auf das konzentrieren können, was Sie am besten können – die Entwicklung Ihrer KI-Anwendungen.

Llama kennenlernen

In den letzten zehn Jahren hat sich Meta darauf konzentriert, Entwicklern Tools zur Verfügung zu stellen und die Zusammenarbeit und Weiterentwicklung zwischen Entwicklern, Forschern und Organisationen zu fördern. Lama-Modelle sind in einer Reihe von Parametergrößen erhältlich, sodass Entwickler das Modell auswählen können, das ihren Anforderungen und ihrem Inferenzbudget am besten entspricht. Lamamodelle in Amazon Bedrock eröffnen eine Welt voller Möglichkeiten, da sich Entwickler keine Gedanken über Skalierbarkeit oder Verwaltung der Infrastruktur machen müssen. Amazon Bedrock ist eine sehr einfache, sofort einsatzbereite Möglichkeit für Entwickler, mit Llama zu beginnen.

Anwendungsfälle

Llama-Modelle überzeugen durch gutes Bildverständnis und visuelles Denken, sprachliche Nuancen und gutes kontextuelles Verständnis. Sie können sehr gut komplexe Aufgaben wie die Analyse visueller Daten, die Beschriftung von Bildern, Übersetzungen und die Generierung von Dialogen ausführen und mühelos mehrstufige Aufgaben bewältigen. Zu den weiteren Anwendungsfällen, für die sich Llama-Modelle hervorragend eignen, gehören anspruchsvolles visuelles Denken und Verständnis, das Auffinden von passenden Bildern zu textlichen Beschreibungen, Visual Grounding und die Beantwortung von Fragen zu Bildern in Dokumenten. Weitere Stärken sind die Zusammenfassung von Texten und die Textgenauigkeit, die Klassifizierung von Texten, die Stimmungsanalyse und nuancierte Argumentation, die Sprachmodellierung, Dialogsysteme, die Codegenerierung und die Befolgung von Anweisungen.

Modellversionen

Llama 3.3 70B

Ein rein textbasiertes auf Befehle abgestimmtes 70B-Modell, das im Vergleich zu Llama 3.1 70B eine verbesserte Leistung bietet – und zu Llama 3.2 90B, wenn es für reine Textanwendungen verwendet wird. Llama 3.3 70B bietet eine ähnliche Leistung wie Llama 3.1 405B, benötigt aber nur einen Bruchteil der Rechenressourcen.

Maximale Token: 128.000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Spanisch und Thailändisch.

Feinabstimmung unterstützt: Nein

Unterstützte Anwendungsfälle: Dieses Modell unterstützt leistungsstarke Konversations-KI, die für die Erstellung von Inhalten, Unternehmensanwendungen und Recherchen entwickelt wurde, und bietet erweiterte Sprachverständnisfunktionen, einschließlich Textzusammenfassung, Klassifizierung, Stimmungsanalyse und Codegenerierung. Das Modell unterstützt auch die Fähigkeit, Modellergebnisse zu nutzen, um andere Modelle wie die Generierung synthetischer Daten und die Destillation zu verbessern.

Llama 3.2 90B

Multimodales Modell, das sowohl Text- als auch Image-Eingaben und -ausgaben verwendet. Ideal für Anwendungen, die ausgefeilte visuelle Intelligenz erfordern, wie Bildanalyse, Dokumentenverarbeitung, multimodale Chatbots und autonome Systeme.

Maximale Token: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Feinabstimmung unterstützt: Nein

Unterstützte Anwendungsfälle: Image-Verständnis, visuelles Denken und multimodale Interaktion, die fortgeschrittene Anwendungen wie Bilduntertitelung, Image-Text-Abruf, visuelle Grundierung, visuelle Fragebeantwortung und dokumentative visuelle Beantwortung von Fragen ermöglichen, mit einer einzigartigen Fähigkeit, aus visuellen und textlichen Eingaben Schlussfolgerungen zu ziehen.

Blog lesen

Llama 3.2 11B

Multimodales Modell, das sowohl Text- als auch Image-Eingaben und -ausgaben verwendet. Ideal für Anwendungen, die ausgefeilte visuelle Intelligenz erfordern, wie Bildanalyse, Dokumentenverarbeitung und multimodale Chatbots.

Maximale Token: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Feinabstimmung unterstützt: Nein

Unterstützte Anwendungsfälle: Image-Verständnis, visuelles Denken und multimodale Interaktion, die fortgeschrittene Anwendungen wie Bilduntertitelung, Image-Text-Abruf, visuelle Grundierung, visuelle Beantwortung von Fragen und visuelle Beantwortung dokumentarischer Fragen ermöglichen.

Blog lesen

Llama 3.2 3B

Leichtes Modell, das nur Text enthält, um hochgenaue und relevante Ergebnisse zu liefern. Entwickelt für Anwendungen, die Inferenz mit geringer Latenz und begrenzte Rechenressourcen erfordern. Ideal für Abfrage- und sofortiges Umschreiben, mobile KI-gestützte Schreibassistenten und Kundenservice-Anwendungen. Insbesondere auf Edge-Geräten, wo seine Effizienz und geringe Latenz eine nahtlose Integration in verschiedene Anwendungen ermöglichen, einschließlich mobiler KI-gestützter Schreibassistenten und Kundenservice-Chatbots.

Maximale Token: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Feinabstimmung unterstützt: Nein

Unterstützte Anwendungsfälle: Fortgeschrittene Textgenerierung, Zusammenfassung, Stimmungsanalyse, emotionale Intelligenz, kontextuelles Verständnis und vernünftiges Denken.

Blog lesen

Llama 3.2 1B

Leichtes Modell, das nur Text enthält, um schnelle und genaue Antworten zu liefern. Ideal für Edge-Geräte und mobile Anwendungen. Das Modell ermöglicht KI-Funktionen auf dem Gerät, während die Privatsphäre der Benutzer gewahrt und die Latenz minimiert wird.

Maximale Token: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Feinabstimmung unterstützt: Nein

Unterstützte Anwendungsfälle: Mehrsprachige Dialog-Anwendungsfälle, wie z. B. Verwaltung persönlicher Informationen, mehrsprachige Wissensabfrage und Umformulierungsaufgaben.

Blog lesen

Lama 3.1 405B

Ideal für Anwendungen auf Unternehmensebene, Forschung und Entwicklung, Generierung synthetischer Daten und Modelldestillation. Mit latenzoptimierten Inferenzfunktionen, die in der öffentlichen Vorschau verfügbar sind, bietet dieses Modell eine außergewöhnliche Leistung und Skalierbarkeit, sodass Unternehmen ihre KI-Initiativen beschleunigen und gleichzeitig qualitativ hochwertige Ausgaben für verschiedene Anwendungsfälle aufrechterhalten können.

Maximale Tokens
: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Feinabstimmung wird unterstützt: Demnächst

Unterstützte Anwendungsfälle: Das Modell zeichnet sich durch Allgemeinwissen, Generierung langer Texte, maschinelle Übersetzung, verbessertes Kontextverständnis, fortschrittliches Denken und Entscheiden, besseren Umgang mit Mehrdeutigkeiten und Unsicherheiten, erhöhte Kreativität und Vielfalt, Steuerbarkeit, Mathematik, Werkzeuggebrauch, mehrsprachige Übersetzung und Codierung aus.

Blog lesen

Lama 3.1 70B

Ideal für die Erstellung von Inhalten, Konversations-KI, Sprachverständnis, Forschungsentwicklung und Unternehmensanwendungen. Mit neuen latenzoptimierten Inferenzfunktionen, die in der öffentlichen Vorschau verfügbar sind, setzt dieses Modell einen neuen Leistungsmaßstab für KI-Lösungen, die umfangreiche Texteingaben verarbeiten, sodass Anwendungen schneller reagieren und längere Abfragen effizienter bearbeiten können.

Maximale Token: 128.000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Feinabstimmung unterstützt: Ja

Unterstützte Anwendungsfälle: Textzusammenfassung, Textklassifizierung, Stimmungsanalyse und Sprachübersetzung.

Blog lesen

Lama 3.1 8B

Ideal für begrenzte Rechenleistung und Ressourcen, schnellere Trainingszeiten und Edge-Geräte.

Maximale Token: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Feinabstimmung unterstützt: Ja

Unterstützte Anwendungsfälle: Textzusammenfassung, Textklassifizierung, Stimmungsanalyse und Sprachübersetzung.

Blog lesen

Llama 3 70B

Ideal für die Erstellung von Inhalten, Konversations-KI, Sprachverständnis, Forschungsentwicklung und Unternehmensanwendungen. 

Maximale Token-Anzahl: 8.000

Sprachen: Englisch

Feinabstimmung unterstützt: Nein

Unterstützte Anwendungsfälle: Textzusammenfassung und Genauigkeit, Textklassifizierung und Nuancierung, Stimmungsanalyse und nuanciertes Denken, Sprachmodellierung, Dialogsysteme, Codegenerierung und Befolgung von Anweisungen.

Blog lesen

Llama 3 8B

Ideal für begrenzte Rechenleistung und Ressourcen, schnellere Trainingszeiten und Edge-Geräte.

Maximale Token-Anzahl: 8.000

Sprachen: Englisch

Feinabstimmung unterstützt: Nein

Unterstützte Anwendungsfälle: Textzusammenfassung, Textklassifizierung, Stimmungsanalyse und Sprachübersetzung

Blog lesen

Llama 2 70B

Fein abgestimmtes Modell in der Parametergröße 70 Mrd. Geeignet für größere Aufgaben wie Sprachmodellierung, Textgenerierung und Dialogsysteme.

Maximale Token-Anzahl: 4 000

Sprachen: Englisch

Feinabstimmung unterstützt: Ja

Unterstützte Anwendungsfälle: Assistentenähnlicher Chat

Blog lesen

Llama 2 13B

Fein abgestimmtes Modell in der Parametergröße 13 Mrd. Geeignet für kleinere Aufgaben wie Textklassifizierung, Stimmungsanalyse und Sprachübersetzung.

Maximale Token-Anzahl: 4 000

Sprachen: Englisch

Feinabstimmung unterstützt: Ja

Unterstützte Anwendungsfälle: Assistentenähnlicher Chat

Blog lesen

Nomura verwendet Lama-Modelle von Meta in Amazon Bedrock, um generative KI zu demokratisieren

 

Aniruddh Singh, Executive Director und Enterprise Architect von Nomura, skizziert den Weg des Finanzinstituts zur unternehmensweiten Demokratisierung generativer KI mithilfe der Amazon Bedrock- und Lama-Modelle von Meta. Amazon Bedrock bietet wichtigen Zugriff auf führende Basismodelle wie Llama und ermöglicht so eine nahtlose Integration. Llama bietet Nomura wichtige Vorteile, darunter schnellere Innovation, Transparenz, Vorurteile und eine robuste Leistung bei der Textzusammenfassung, Codegenerierung, Protokollanalyse und Dokumentenverarbeitung. 

TaskUs revolutioniert das Kundenerlebnis mit Lama-Modellen von Meta in Amazon Bedrock

TaskUs, ein führender Anbieter von ausgelagerten digitalen Diensten und Kundenerlebnissen der nächsten Generation für die innovativsten Unternehmen der Welt, hilft seinen Kunden, ihre Marken zu vertreten, zu schützen und zu erweitern. Die innovative TaskGPT-Plattform, die auf den Modellen Amazon Bedrock und Llama von Meta basiert, ermöglicht es Teamkollegen, außergewöhnlichen Service zu bieten. TaskUs baut Tools auf TaskGPT auf, die Amazon Bedrock und Llama für kosteneffektives Paraphrasieren, Generieren, Verstehen und Bearbeiten komplexer Aufgaben nutzen.