PangeaMT ECOChat

MONOLINGUALE DATENSÄTZE FÜR GROSSE SPRACHMODELLE

Feinabstimmung großer Sprachmodelle und generativer vortrainierter Transformatoren mit unseren  domänenspezifischen monolingualen Datensätzen

Wir verstehen, dass eine der Herausforderungen generativer vortrainierter Transformatoren (GPT) darin besteht, auf dem neuesten Stand zu bleiben und domänenspezifische Informationen zu erhalten. Unsere jahrzehntelange Erfahrung im Aufbau von Parallelkorpora hilft uns, die menschenähnlichen Fähigkeiten Ihrer großen Sprachmodelle zu verbessern, wobei wir von der Sammlung über die Bereinigung bis zur Lieferung einen starken Fokus auf Ethical AI legen.

Sprechen Sie mit einem Experten

 

Pangeanic für monolinguale Datensätze

Die meisten großen Sprachmodelle (wie GPT) basieren auf generischen, frei verfügbaren Daten von CommonCrawl, Wikipedia, Büchern, GitHub und anderen Quellen. Pangeanic hat Jahrzehnte damit verbracht, zweisprachige Datensätze für das Training statistischer und neuronaler maschineller Übersetzungssysteme sowie monolinguale Datensätze für Sprachmodelle zu sammeln. Da LLMs für eine Vielzahl von Anwendungen immer beliebter werden, wird unser domänenspezifisches Angebot zu einem wertvollen Werkzeug für die Erstellung generativer Textlösungen.

 

Erhöhen Sie die Sprachabdeckung und Genauigkeit generativer Systeme in mehr als 100 Sprachen

Große Sprachmodelle (LLMs) verändern die Welt. Sie haben sich als sehr mächtiges und aufregendes Werkzeug für NLP und verwandte Anwendungen erwiesen. Die verschiedenen generativen vortrainierten Transformatoren revolutionieren das Gebiet der künstlichen Intelligenz, dank ihrer Fähigkeit, natürliche Spracheingaben mit bemerkenswerter Genauigkeit zu verstehen und kontextbezogene Antworten, Zusammenfassungen oder Vergleiche auf einem Niveau zu generieren, das im Allgemeinen von dem eines Menschen nicht zu unterscheiden ist.

Tablero

Bei Pangeanic verstehen wir, dass GPT-Modelle noch nicht perfekt sind und es noch viel Arbeit auf dem Weg zum endgültigen Ziel einer GAI (General Artificial Intelligence) gibt. Wie oft bei der Ausbildung von KI-Algorithmen ist die Verfügbarkeit guter Trainingsdaten eine der Hauptbeschränkungen. Zum Beispiel wurde das erste GPT-1 auf einem Datensatz von nur 4,5 GB Textdaten aus BookCorpus trainiert und 2018 veröffentlicht. Im November 2019 wurde GPT-2 mit mehr als 40 GB Textdaten trainiert, und GPT-3 ("text-davinci-003" und "code-davinci-002") wurde 2020 nach dem Training mit 570 GB mehrsprachigen Textdaten veröffentlicht. Ein Prototyp der GPT-3.5-Serie ChatGPT (GPT3.5) soll angeblich mit etwas mehr als 720 GB mehrsprachigen Textdaten trainiert worden sein.

Architecture Parameters Training dataset

GPT-1

12-stufiger, 12-köpfiger Transformer-Decoder (kein Encoder), gefolgt von Linear-Softmax.

0,12 Milliarden

BookCorpus: 4,5 GB Text, aus 7000 unveröffentlichten Büchern verschiedener Genres.

GPT-2

GPT-1, aber mit modifizierter Normalisierung.

1.5 Milliarden

WebText: 40 GB Text, 8 Millionen Dokumente, aus 45 Millionen Webseiten, die auf Reddit hochgevotet wurden.

GPT-3

GPT-2, aber mit Modifikationen, um größere Skalierung zu ermöglichen.

175 Milliarden

570 GB Klartext, 0,4 Billionen Tokens. Hauptsächlich CommonCrawl (410 Milliarden, 60%), WebText2 (410 Milliarden, 22%), Englische Wikipedia (3 Milliarden, 3%), zwei Buchkorpora (Books1 mit 12 Milliarden Tokens und Books2).

Was macht die monolingualen Datensätze von Pangeanic so besonders?

Wenn es um das Training von Sprachmodellen geht, ist die Qualität des verwendeten monolingualen Datensatzes entscheidend. Nicht alle Petabytes an Daten von CommonCrawl wurden für das Training von Modellen wie Kosmos, Bloom, ChatGPT usw. verwendet. Sie wurden stark kuratiert. Das Team von Pangeanic hilft Ihnen, auf dem neuesten Stand zu bleiben und die Abdeckung des Wissensbereichs zu erweitern, indem es die Lücken füllt, in denen Ihr Team nicht genügend Daten sammeln oder erstellen kann.

precisas-tecnicas

Monolinguale Datensätze können in vielen verschiedenen Formen vorliegen, von Büchern über Artikel, Webseiten usw. Persönlichere Daten wie Gespräche, Interviews, E-Mails, Bedienungsanleitungen usw., Podcasts, sind schwer zu bekommen oder durch geistiges Eigentum geschützt. Unser Team erstellt und lagert IP-freie, qualitativ hochwertige Texte, genau wie es dies für parallele Korpora für maschinelle Übersetzungssysteme getan hat. Und das tun wir in mehreren Sprachen!

Vertrauen Sie einem erweiterten, erfahrenen Sprachteam

Unser Team besteht aus Maschinenlern-Ingenieuren, Computerlinguisten und Übersetzungsprofis. Gemeinsam sorgen sie für die bestmögliche Datenkuratierung, -auswahl und -verifizierung für jeden monolingualen Datensatz zur Sprachmodellierung.

Sprechen Sie mit einem Experten
 

MicrosoftTeams-image (157)
 

Tipps für einen guten monolingualen Datensatz

Beim Aufbau eines großen Sprachmodells gibt es mehrere Punkte zu beachten. Pangeanic baut sie seit 2009 für seine statistische maschinelle Übersetzung und seit 2017 für seine neuronalen MT-Systeme.

Wir empfehlen, die folgenden 6 Punkte zu beachten, wenn Sie ein KI-Modell trainieren, da Datensätze genau, skalierbar und relevant für Ihre Anwendungsfälle sein müssen, um sicherzustellen, dass die Modelle die Anforderungen verstehen, relevante Informationen extrahieren und mit Ergebnissen reagieren, die für Ihre Zielnutzer informiert, genau und akzeptabel sind.

otras

GRÖSSE

Die Größe des Datensatzes ist entscheidend für das Training von LLM-Modellen, da größere Datensätze zu einer besseren Leistung bei der Sprachmodellierung führen können. Idealerweise sollte der Datensatz groß genug sein, um die Vielfalt der Sprache und des Textbereichs abzudecken.

ic-traduccion-experta

VIELFALT

Der Datensatz sollte eine vielfältige Auswahl an Textarten enthalten, wie Nachrichtenartikel, Social-Media-Beiträge und wissenschaftliche Arbeiten. Dies hilft dem Modell, die Nuancen der Sprache zu lernen und bei einer Vielzahl von Aufgaben besser zu performen.

integracion-apis

QUALITÄT

Der Datensatz sollte von hoher Qualität, fehlerfrei und gut strukturiert sein. Ein schlecht strukturierter oder fehlerhafter Datensatz kann zu einem minderwertigen Modell führen.

icon-infinitos

DOMÄNENSPEZIFISCH

Wenn Sie ein LLM-Modell für einen bestimmten Bereich trainieren, wie z.B. Automobilindustrie, Elektrotechnik, Recht oder Medizin, ist es unerlässlich, einen datensatzspezifischen Datensatz zu haben. Dies hilft dem Modell, die spezifische Sprache und Terminologie dieses Bereichs zu erlernen und führt zu einer besseren Leistung bei domänenspezifischen Aufgaben.

ic-rendimiento_2

KONTINUITÄT

Ein Datensatz, der sich über einen langen Zeitraum erstreckt, ist ideal, da er helfen kann, Sprachveränderungen und -entwicklungen im Laufe der Zeit zu erfassen.

ic-metricas

AUSGEWOGEN

Ein guter Datensatz sollte eine ausgewogene Mischung aus Texten aus verschiedenen Quellen und Bereichen enthalten, um zu verhindern, dass das Modell Vorurteile lernt oder sich an eine bestimmte Textart überanpasst.

Wir können monolinguale Datensätze für spezifische Projekte mit vollständigen Eigentumsrechten erstellen.

Wir helfen Ihnen, einen guten monolingualen Datensatz für das LLM-Training mit großen, vielfältigen, hochwertigen, domänenspezifischen, kontinuierlichen und ausgewogenen monolingualen Texten zu erstellen.

Kontaktieren Sie uns
 

Seguridad datos

Wie werden die monolingualen Datensätze von Pangeanic gesammelt?

Als Sprachdienstleistungs- und NLP-Unternehmen haben wir seit 20 Jahren domänenspezifische monolinguale Datensätze gesammelt. Wir sammeln und erstellen kontinuierlich domänenspezifische, qualitativ hochwertige Pre-Kandidaten für die Übersetzung. Dies macht unsere monolingualen Datensätze einzigartig.

Wir sammeln Daten für das KI-Training auf verschiedene Weise. Meistens nutzen wir unsere ECO-Plattform und Apps, um Personen zu rekrutieren, die zu vorgegebenen Themen schreiben.

ilustracion-security-2

Unser Sprachteam kuratiert auch nicht-crawlbare Daten und bereinigt frei verfügbare offene Daten, aktualisiert sie und/oder erstellt Versionen, um sie IP-frei zu machen

Schließlich schließen wir Vereinbarungen ab, um kleine Abschnitte bereits vorhandener Textdateien zu kaufen, die nicht öffentlich zugänglich gemacht wurden, insbesondere in ressourcenarmen Sprachen.

Wir sind hier, um Ihnen zu helfen mit

· Lagerung monolingualer Datensätze

· Über +100 Sprachen

· Maßanfertigung

Fordern Sie eine Demo an

Auf der Suche nach spezifischen monolingualen Datensätzen?

Mit Pangeanic können Sie nicht nur Ihre Bedürfnisse definieren, um Datensätze mühelos online mit einer einfachen Drag-and-Drop-Benutzeroberfläche anzufordern, zu verwalten und zu überprüfen, sondern Sie können auch überwachen, wie unser Team und die Mitarbeiter arbeiten und wie der Fortschritt bei der Datensammlung verläuft.

Alle monolingualen Datensätze werden gemäß Ihren Anforderungen umfassend überprüft, bereinigt und mit den relevanten Metadaten (Alter, Domäne, Quelle usw.) annotiert, damit Ihre Algorithmen so genau, stark und weise wachsen, wie Sie es wünschen!

sentimiento
icon-reward

Urheberrechte an monolingualen Datensätzen

Unsere Datensätze bieten Ihnen vollständiges Eigentum und volle Urheberrechte, entweder für monolinguale Datensätze oder für die gesammelten Audiodaten (Sprachdaten) und die Transkription für das ML-Training. Pangeanic folgt Prozessen, bei denen Ethik in jeder Phase der KI-Entwicklung integriert ist, und Sie können sicher sein, dass dies auf Ihre Produkte übertragen wird. Unsere Kunden genießen eine reibungslose Zusammenarbeit mit einem vertrauenswürdigen Anbieter von Datendiensten, der Trainingsdatensätze zur Verbesserung der LLM-, MT- oder ASR-Leistung liefert und Sie von der Mühe der Erstellung, Sammlung und Verarbeitung von Text- oder Audiodaten befreit und gleichzeitig wertvolle Metadaten hinzufügt.

icon-check-circle

Sentiment-Annotation für Sprachdatensätze

Sentimentanalyse liefert sehr wertvolle Erkenntnisse, die oft geschäftliche Entscheidungen beeinflussen können. Pangeanic hat umfangreiche Erfahrung in der Entwicklung eigener Sentimentanalyse-Tools. Um Sentiment zu extrahieren, muss man Muttersprachler der Sprache sein und alle Nuancen und Feinheiten, manchmal auch ironische Sprache, verstehen. Unsere Aufnahmen können als positiv, negativ oder neutral annotiert werden, um mehr Daten zu liefern, mit denen ein ML-Modell trainiert werden kann, das in der Lage ist, Sentiments zu verstehen und eigene Erkenntnisse zu liefern. Unser PECAT-Textannotierungstool beschleunigt alle Aufgaben der Sentiment-Annotation.

Entdecken Sie Pangeanics monolinguale Datensätze für KI

Wir möchten Ihnen helfen, Ihr Geschäft zu vergrößern. Wir kombinieren KI und menschlichen Einfallsreichtum, um Ihnen einen maßgeschneiderten Service zu bieten. Lassen Sie die Technologie für Sie arbeiten.

Kontaktieren Sie uns
 

tecnologia