Skip to main content

Beim pan.talk am 24. Juni 2025 beantwortete Dr. Imanol Schlag, AI Research Scientist und Tech Lead am ETH AI Center sowie Co-Lead des Bereichs LLM bei der Swiss AI Initiative die Frage, wie ein kleines Land wie die Schweiz eine eigene, international konkurrenzfähige KI-Infrastruktur aufbauen kann.

Um die Bedeutung der Swiss AI Initiative noch stärker hervorzuheben, wurden die Swiss {ai} Weeks ins Leben gerufen – eine Veranstaltungsreihe, die vom 1. September bis 5. Oktober 2025 stattfindet und Expert*innen, Unternehmen und die Öffentlichkeit zusammenbringt, um den Schweizer Standort im Bereich KI zu stärken.

Als Co-Initiatoren der Swiss {ai} Weeks engagieren wir uns gemeinsam mit weiteren Partnern, darunter das ETH AI Center, um unsere Expertise einzubringen und die Entwicklung von KI-Lösungen voranzutreiben. In unserem Blogbeitrag erfährst du, wie wir den Wandel nicht nur beobachten, sondern aktiv mitgestalten möchten.

Blogbeitrag lesen

Was macht ein Sprachmodell eigentlich «intelligent»?

Bevor es um die Swiss AI Initiative und einem Schweizer LLM ging, nahm uns Imanol zunächst mit zurück zu den Wurzeln des maschinellen Lernens. Er erklärte, was diskriminative und generative Modelle sowie neuronale generative Sprachmodelle ausmacht und welche Rolle das Konzept der Scaling Laws dabei spielt. Scaling Laws sind, einfach ausgedrückt, Beobachtungen aus der Praxis, die besagen: Je mehr Daten, grössere Modelle (mehr Parameter) und mehr Rechenleistung man einem Sprachmodell gibt, desto leistungsfähiger bzw. besser wird es – und das oft auf vorhersagbare Weise.

Eine von der Schweizer KI-Initiative inspirierte Tabelle vergleicht Modultyp, Was es macht, Ziel und Beispiel für diskritatives Modell, generatives Modell und neuronales generatives Sprachmodell.

Reasoning Models auf dem Vormarsch

Seit dem Launch von ChatGPT im November 2022 hat sich die Entwicklung neuronaler Chatbots rasant beschleunigt. Von reinen Textmodellen ging es hin zu multimodalen, speicherfähigen Assistenten mit starkem logischem Denkvermögen, erweitertem Kontextfenster und Werkzeugnutzung. Im Jahr 2024 erfolgte der Übergang zu einer neuen Generation von General-Purpose-Assistenten wie Microsoft Copilot oder Gemini 2.0. Diese können nicht nur Texte, sondern auch Bilder, Dokumente und Code verarbeiten und mit der realen Welt interagieren. Im Jahr 2025 stehen immer mehr sogenannte Reasoning Models wie OpenAI o1, Deepseek R1 und Grok im Fokus. Mit ihrem tieferen Verständnis, ihren präziseren Schlussfolgerungen und ihrer noch stärkeren Integration in Arbeitsprozesse setzen sie neue Standards.

Warum die Schweiz ihre eigene KI-Infrastruktur aufbaut

Die Swiss AI Initiative wurde im Oktober 2023 als nationale Forschungsinitiative gemeinsam von der ETH Zürich und der EPFL lanciert, um die technologische Souveränität der Schweiz im Bereich der Künstliche Intelligenz zu stärken. Im Rahmen der Initiative engagieren sich über 10 akademische Institutionen (siehe Grafik), mehr als 70 Professor*innen und rund 800 Forschende in verschiedenen Forschungsprojekten zu generativer KI, darunter auch der Aufbau und das Training eines in der Schweiz entwickelten Large Language Models (LLM). Dabei ist es ein zentrales Anliegen, Transparenz zu gewährleisten, indem Datenquellen offengelegt und Entscheidungen der Modelle nachvollziehbar gemacht werden, um das Vertrauen in die Technologie zu stärken.

Logos verschiedener Schweizer Hochschulen und Forschungsinstitute, darunter die ETH Zürich, die EPFL, das SDSC und andere, die ihre Beteiligung an der Schweizer KI-Initiative demonstrieren.

“Damit setzt die Schweiz bewusst einen Kontrapunkt zu den dominanten, meist US-geprägten KI-Modellen wie ChatGPT oder Claude”, sagt Imanol. Diese Modelle sind nicht nur sprachlich und kulturell stark auf Englisch und den US-amerikanischen Kontext ausgerichtet. Meist sind sie proprietär, der Zugang ist eingeschränkt und es gibt keine offenen Daten. Zudem gibt es wenig Transparenz über die Trainingsmethoden oder die Inhalte. Darüber hinaus haben viele Modelle Trainingsdaten aus dem Internet gespeichert, ohne deren Herkunft oder Qualität offenzulegen. Dass Hinweise auf solche «memorised training data» bei Modellen wie Llama teils gar nicht mehr dokumentiert sind, hält Imanol für besonders problematisch.

Alps Supercomputer: Das Rückgrat der Swiss AI Initiative

Als Imanol über Alps spricht, der im September 2024 offiziell eingeweihte Supercomputer in Lugano, kommt er nicht mehr aus dem Schwärmen heraus. Mit seinen über 10’000 GH200 GPUs, die für das Training grosser Sprachmodelle optimiert sind, ist er ein wichtiger Schlüsselbaustein der Swiss AI Initiative und zählt zu den leistungsstärksten Supercomputern weltweit.

Weitere Besonderheiten sind:

🌍 Die geodistribuierte Architektur verbindet mehrere Schweizer Forschungsstandorte für eine flexible und redundante Nutzung.

💧 Die Kühlung erfolgt nachhaltig durch kaltes Seewasser aus dem Luganersee.

🤝 Alps fördert Open-Source-KI-Modelle und internationale Forschungszusammenarbeit.

Eine Person geht an großen, modernen Supercomputern in einem hell erleuchteten, großen Raum vorbei. Die Geräte, die zur Schweizer KI-Initiative gehören, sind künstlerisch gestaltet, mit dem Wort ALPS in großen blauen Buchstaben und einem Kunstwerk mit Bergmotiven.

Wo steht das Schweizer Sprachmodell?

Laut Imanol steht das Schweizer Sprachmodell in den Startlöchern und unterscheidet sich von Modellen aus Übersee durch seine klare Ausrichtung auf die Einhaltung des Schweizer Datenschutzgesetzes (DSG) und des EU Artificial Intelligence Act («AI Act»). Wie bereits angesprochen, möchte die Swiss AI Initiative ein transparentes und verantwortungsvoll trainiertes Large Language Model (LLM) bereitstellen, das in allen unterstützten Sprachen gleichwertige Leistung und Nutzungskosten bietet.

Das Modell zeichnet sich durch eine starke Performance aus, und basiert auf einem grossen Datensatz öffentlicher Daten. Dabei sind der Quellcode, die Gewichtungsparameter und die Lizenz offen zugänglich. Zusätzlich wird besonders auf rechtliche Compliance geachtet. Das Projekt fördert den rechtlichen Dialog, respektiert Opt-out-Möglichkeiten und verhindert das unerwünschte Memorisieren sensibler Informationen.

Mit Pionierarbeit zur KI-Souveränität: Die Schweiz macht’s vor

Der pan.talk mit Imanol hat eindrucksvoll gezeigt, wie ein kleines Land wie die Schweiz durch Forschung, Infrastruktur und klare Werte seine KI-Souveränität stärken kann. Doch warum ist das wichtig? Weil proprietäre Modelle wie Llama 4 in Europa teils lizenziert eingeschränkt sind, Transparenz oftmals fehlt und Abhängigkeiten von ausländischer Infrastruktur bestehen.

Die Swiss AI Initiative möchte dem ein in der Schweiz entwickeltes, transparentes Sprachmodell entgegensetzen. Das Publikum zeigte sich entsprechend sehr interessiert und stellte teils kritische Fragen, insbesondere zu ethische Aspekten und gesellschaftlicher Verantwortung.

Die nächste Möglichkeit, sich über dieses Thema auszutauschen, sind die vom 1. September bis und zum 5. Oktober dauernden Swiss {ai} Weeks. Dort kann man sich vernetzen und auch einen eigenen Beitrag zur KI-Zukunft leisten.

Sprich mit uns, wenn du ein eigenes KI-Projekt starten willst – wir helfen gerne.

Jetzt Kontakt aufnehmen