Worum es hier geht
Apertus ist ein neues, offenes KI-Sprachmodell aus der Schweiz – entwickelt von der Swiss AI Initiative rund um EPFL, ETH Zürich & Co. Das Besondere: Die komplette Entwicklung ist transparent dokumentiert, das Modell ist Open Source und wurde bewusst an europäischen Datenschutz- und Urheberrechtsregeln ausgerichtet.
Für euch heißt das: eine KI, die man ernsthaft in Europa betreiben kann – auf eigener Infrastruktur oder in einer souveränen Cloud.
Wir bei SOULSURF haben Apertus aktuell noch nicht produktiv im Einsatz, sind aber sehr angetan davon, dass europäische Initiativen endlich qualitativ hochwertige Open-Source-Modelle liefern, die lokal und rechtssicher laufen können.
Was Apertus mit euren Dokumenten machen kann
Apertus ist ein Sprachmodell – also eine KI, die Texte liest und schreibt. Damit eignet es sich sehr gut für viele „kleine“, aber nervige Dokumenten-Jobs, zum Beispiel:
- Zusammenfassen
Lange Berichte, Protokolle oder E-Mail-Verläufe auf eine Seite eindampfen. - Strukturieren & vorsortieren
Dokumente grob einordnen: Angebot, Rechnung, Vertrag, Protokoll, … - Infos herausziehen
Namen, Beträge, Fristen, Projektnummern oder Schlagworte automatisch erkennen. - Antwortvorschläge bauen
Für E-Mails oder Tickets Formulierungen vorschlagen, die ihr nur noch prüft und freigebt.
Genau dafür wurde Apertus zwar nicht speziell „gebrandet“, aber: Seine Fähigkeiten (viel Text auf einmal, sauberer Umgang mit Sprache, Fokus auf Compliance) passen sehr gut zu dokumentenlastigen Aufgaben.
65k Kontext – was heißt das in der Praxis?
Jede KI hat ein „Kontextfenster“ – also die Menge Text, die sie auf einmal im Blick behalten kann.
- Apertus kann bis zu 65.536 Tokens Kontext verarbeiten. Das entspricht grob 150–200 Seiten Text in einem Rutsch – je nach Layout und Sprache.
- Flaggschiff-Modelle wie OpenAIs GPT-4.1 liegen inzwischen bei 1 Million Tokens Kontext – also noch einmal ein Mehrfaches.
Übersetzt:
- Mit Apertus könnt ihr ein großes Dokument oder ein kleines Bündel an Dokumenten am Stück analysieren – etwa einen größeren Vertrag mit Anhängen, einen umfangreichen Bericht oder ein Set an Richtlinien zu einem Thema.
- Für riesige Doku-Berge – ganze Wikis, jahrelange Mail-Archive, komplette Normensammlungen – reicht auch 65k nicht. Aber: Selbst 1M-Token-Modelle kämpfen in der Praxis damit, wenn man ihnen einfach „alles auf einmal“ hinwirft.
Darum ist die wichtigere Frage weniger: „Wer hat die größte Zahl?“, sondern: „Wie schlau steuern wir, was die KI überhaupt sieht?“
Unser Ansatz: Research-Agent statt „alles in ein Fenster kippen“
Wir arbeiten bei SOULSURF an einem eigenen Tool, das wie ein kleiner Research-Agent funktioniert:
- Es zerlegt große Dokumente oder Dokumentensammlungen in sinnvolle Abschnitte (Chunks),
- liest und analysiert diese schrittweise,
- fasst Zwischenergebnisse zusammen
- und baut daraus ein verdichtetes Bild, mit dem die KI weiterarbeiten kann.
Damit können wir auch Dokumente verarbeiten, die eigentlich viel zu groß für ein einzelnes Kontextfenster sind – egal ob das Fenster 65k, 100k oder 1M Tokens groß ist.
Ehrlich dazu gesagt:
Ein Modell mit nativem 1M-Kontext ist für manche Spezialfälle noch mal eine eigene Liga. Aber in vielen realen Projekten ist eine Kombination aus:
- solidem offenen Modell (z. B. Apertus),
- kluger Dokumenten-Zerlegung
- und gezielter Auswahl des relevanten Kontexts
oft sinnvoller als einfach „alles reinwerfen“ – und dazu deutlich besser kontrollierbar, was die KI überhaupt sieht.
Wo Apertus im Vergleich zu den Flaggschiffen steht
Wenn man Apertus mit aktuellen Top-Modellen vergleicht, ergibt sich ein ganz gutes Bild:
- US-Flaggschiffe (z. B. GPT-4.1, Claude 4)
- extrem große Kontexte (bis 1M Tokens),
- sehr hohe Roh-Performance,
- aber: Blackbox, oft unklare Datengrundlage, Datenverarbeitung meist außerhalb Europas.
- extrem große Kontexte (bis 1M Tokens),
- Apertus
- deutlich kleineres Kontextfenster (65k),
- Open Source, transparent dokumentiert, auf europäische Regeln (Datenschutz, Urheberrecht, EU AI Act) ausgelegt,
- kann in eurer eigenen Infrastruktur oder in einer souveränen EU-Cloud laufen.
- deutlich kleineres Kontextfenster (65k),
Für viele dokumentennahe Aufgaben ist das ein sehr attraktiver Trade-off:
- Genug Kapazität, um ein großes Dokument oder ein kompaktes Doku-Set komplett zu erfassen.
- Genug Kontrolle, um Datenschutz, Compliance und Betriebsrat mitnehmen zu können.
Genug Offenheit, um eigene Automatisierungen und Tools – wie unseren Research-Agent – sauber drumherum zu bauen.
Warum wir Apertus spannend finden
Wir sehen Apertus als einen Baustein für einfache, aber wirkungsvolle Dokumenten-Automatisierung:
- Berichte kürzen, Verträge kommentieren, Richtlinien erklären, E-Mails sortieren –
- alles auf Basis eines offenen, europäischen Modells, das ihr mit euren eigenen Prozessen, Daten und Tools kombinieren könnt.
Noch ist Apertus jung, und wir setzen es bewusst noch nicht in Kundenprojekten ein. Aber die Richtung stimmt: Weg von reinen Blackbox-APIs, hin zu offenen, nachvollziehbaren KI-Modellen, die auch in Europa langfristig tragfähig sind.
Wenn ihr euch fragt, ob so eine offene „Dokumenten-KI“ zu euren Abläufen passt, schauen wir uns das gern gemeinsam an – inklusive der Frage, wo ein Apertus-Setup reicht und wo ein großes Flaggschiff-Modell mehr Sinn macht.
Ihr plant ein KI‑Produkt oder wollt ein bestehendes Angebot wirtschaftlich trimmen? Wir zeigen, wo Marge verloren geht – und wo sie entsteht.
„Ich möchte mehr zu Apertus wissen!“
Wir beraten, implementieren, erweitern und begleiten. Meldet Euch gerne.





