Tutorial: Lokale KI auf dem Mac – Ollama und Open WebUI einfach einrichten

Lokale Sprachmodelle sind spannend, weil sie ohne Cloud-Zwang, mit mehr Datenschutz und oft überraschend einfach nutzbar sind. In diesem Tutorial zeige ich Dir Schritt für Schritt, wie Du auf Deinem Mac mit Ollama und Open WebUI eine eigene lokale KI-Oberfläche einrichtest – ideal zum Experimentieren, Lernen und produktiven Arbeiten.

Tutorial: Lokale KI auf dem Mac – Ollama und Open WebUI einfach einrichten

Die Welt der KI dreht sich schnell – aber nicht jeder will alles in die Cloud schicken

Die Welt der KI dreht sich schnell. Fast jede Woche gibt es neue Modelle, neue Dienste und neue Versprechen. Für viele ist das spannend, aber auch ein bisschen anstrengend. Denn in der Praxis taucht schnell eine ganz einfache Frage auf: Muss wirklich jede Eingabe an einen Cloud-Dienst geschickt werden?

Gerade wenn man Notizen, Textentwürfe, Lernunterlagen, Code-Ideen oder private Dokumente verarbeitet, fühlt sich das nicht immer gut an. Dazu kommen laufende Kosten, Limits bei APIs oder die Sorge, sich von einem einzigen Anbieter abhängig zu machen.

Genau deshalb wird lokale KI immer interessanter.

Statt jedes Mal einen Webdienst zu öffnen, kannst Du auf Deinem eigenen Mac ein Sprachmodell laufen lassen. Natürlich ist das nicht in jedem Fall so leistungsstark wie die größten Cloud-Modelle. Aber für sehr viele alltägliche Aufgaben reicht es erstaunlich weit – und bringt dabei ein paar echte Vorteile mit:

  • mehr Datenschutz,
  • mehr Kontrolle,
  • keine laufenden API-Kosten für jeden kleinen Test,
  • und ein viel besseres Gefühl dafür, wie LLMs in der Praxis funktionieren.

In diesem Artikel richten wir gemeinsam Ollama und Open WebUI auf einem Mac ein. Das ist aus meiner Sicht einer der angenehmsten Einstiege in lokale KI – gerade für Menschen, die keine komplizierte ML-Toolchain aufsetzen möchten.

Wenn Du parallel auch Dein Python-Setup auf dem Mac sauber organisieren willst, ist der ergänzende Artikel zu pyenv und mehreren Python-Versionen eine gute Grundlage.


Warum lokale KI auf dem Mac gerade jetzt so spannend ist

Lokale KI war lange eher etwas für Bastler, Spezialisten oder Leute mit sehr leistungsstarker Hardware. Inzwischen hat sich das verändert. Besonders Macs mit Apple Silicon sind für lokale LLMs überraschend alltagstauglich geworden.

Mehr Datenschutz im Alltag

Der größte praktische Vorteil ist oft nicht Geschwindigkeit, sondern Datenschutz.

Wenn Du ein lokales Modell verwendest, bleiben viele Inhalte direkt auf Deinem Gerät. Das ist interessant für:

  • persönliche Notizen,
  • erste Blog-Entwürfe,
  • Zusammenfassungen von PDFs,
  • Lernkarten,
  • Code-Erklärungen,
  • und private Brainstorming-Sessions.

Natürlich gilt auch hier: Lokal heißt nicht automatisch perfekt sicher. Wenn Dein Rechner ungeschützt ist, hilft Dir das wenig. Aber im Vergleich zu einem rein cloud-basierten Workflow ist die Kontrolle über die eigenen Daten deutlich größer.

Keine laufenden API-Kosten für jeden Test

Wer mit KI experimentiert, klickt und probiert viel herum. Gerade Einsteiger möchten oft erst einmal lernen, statt direkt ein Abo abzuschließen oder API-Guthaben zu verbrauchen. Lokale Modelle sind dafür ideal:

  • einmal einrichten,
  • Modelle herunterladen,
  • direkt loslegen.

Das macht lokale KI besonders attraktiv für Studierende, Lernprojekte oder neugierige Entwicklerinnen und Entwickler.

Apple Silicon hilft enorm

Macs mit M1, M2, M3 oder M4 sind für solche Aufgaben deutlich interessanter als viele denken. Der Grund ist nicht nur die rohe Leistung, sondern auch die Architektur mit Unified Memory. Das macht bestimmte Workloads im Alltag angenehmer, als man es von klassischen älteren Setups erwarten würde.

Das heißt nicht, dass jeder Mac jedes Modell locker stemmen kann. Aber der Einstieg ist heute viel realistischer als noch vor ein paar Jahren.


Was sind Ollama und Open WebUI?

Bevor wir installieren, kurz die Rollenverteilung.

Ollama kurz erklärt

Ollama ist ein Tool, mit dem Du lokale Sprachmodelle relativ einfach herunterladen und ausführen kannst. Statt komplizierte Konfigurationen manuell zusammenzubauen, bekommst Du einen pragmatischen Einstieg.

Typische Dinge, die Ollama Dir abnimmt:

  • Modelle herunterladen,
  • Modelle lokal starten,
  • eine einfache Terminal-Nutzung,
  • und eine lokale API, die andere Tools ansprechen können.

Kurz gesagt: Ollama ist die Motorhaube.

Open WebUI kurz erklärt

Open WebUI ist die grafische Oberfläche dazu. Statt nur im Terminal zu arbeiten, bekommst Du eine browser-basierte Oberfläche, die sich eher wie ein moderner Chat anfühlt.

Das ist praktisch, weil Du:

  • mehrere Chats verwalten kannst,
  • bequem Modelle auswählst,
  • Prompts einfacher testest,
  • und nicht jedes Mal im Terminal arbeiten musst.

Kurz gesagt: Open WebUI ist das Cockpit.

Warum die Kombination so beliebt ist

Die Kombination aus Ollama und Open WebUI ist so verbreitet, weil sie drei Dinge sehr gut zusammenbringt:

  • einfacher Einstieg,
  • ordentliche Alltagstauglichkeit,
  • sauberer lokaler Workflow.

Für viele Leserinnen und Leser ist das ein deutlich angenehmerer Start als eine stark technische Eigenbaulösung.


Was Du vor dem Start wissen solltest

Bevor wir installieren, lohnt sich ein realistischer Blick auf die Hardware.

Nicht jeder Mac ist gleich gut geeignet

Hier eine grobe und ehrliche Orientierung:

8 GB RAM

  • kleine Modelle sind möglich,
  • eher für erste Experimente,
  • längere Chats oder größere Modelle können zäh werden.

16 GB RAM

  • deutlich angenehmer,
  • für viele Alltagsaufgaben ein guter Bereich,
  • kleine bis mittlere Modelle machen hier oft schon Spaß.

24 GB RAM oder mehr

  • spürbar mehr Spielraum,
  • größere Modelle und längere Sitzungen sind realistischer,
  • besonders angenehm, wenn nebenbei noch Browser, Editor und andere Programme laufen.

Realistische Erwartungen sind wichtig

Lokale Modelle sind spannend, aber sie sind nicht automatisch in allem besser als große Cloud-Modelle. Es kommt stark darauf an:

  • welches Modell Du nutzt,
  • wie viel RAM Dein Mac hat,
  • wie gut Dein Prompt formuliert ist,
  • und welche Aufgabe Du lösen willst.

Für Brainstorming, Umformulierungen, Zusammenfassungen, Lernhilfe oder einfache Programmierunterstützung sind lokale Modelle oft schon sehr nützlich. Für komplexe Analyse, sehr lange Kontexte oder besonders schwierige Aufgaben können Cloud-Modelle weiterhin überlegen sein.

Das ist kein Nachteil, sondern einfach eine faire Einordnung.


Schritt 1: Ollama auf dem Mac installieren

Für den Einstieg ist Ollama erfreulich unkompliziert.

Variante A: Installation über die offizielle App

Die einfachste Methode ist meist die offizielle macOS-App von Ollama. Du lädst sie herunter, installierst sie wie eine normale Mac-App und startest sie anschließend.

Wenn Du lieber über Homebrew arbeitest, geht auch das.

Variante B: Installation mit Homebrew

brew install --cask ollama

Danach kannst Du Ollama starten:

open -a Ollama

Warte einen Moment, bis der Hintergrunddienst aktiv ist.

Funktion testen

Prüfe zunächst, ob Ollama verfügbar ist:

ollama --version

Wenn eine Versionsnummer erscheint, sieht es gut aus.

Du kannst außerdem mit diesem Befehl schauen, welche Modelle bereits lokal vorhanden sind:

ollama list

Am Anfang ist die Liste oft noch leer. Das ist normal.


Schritt 2: Das erste Modell herunterladen und starten

Jetzt wird es spannend. Wir laden ein erstes Modell herunter und testen es direkt lokal.

Ein vernünftiges Einsteiger-Modell wählen

Für den Start würde ich bewusst klein anfangen. Der Fehler vieler Einsteiger ist, direkt das größte Modell zu wollen. In der Praxis ist es oft viel angenehmer, erst einmal ein kleineres Modell flüssig laufen zu lassen.

Ein sinnvoller Einstieg auf vielen Macs ist zum Beispiel ein Modell in der Größenordnung von 3B oder 7B/8B – je nach Arbeitsspeicher.

Ein oft genutztes Startbeispiel ist etwa:

ollama run llama3.2:3b

Beim ersten Start lädt Ollama das Modell herunter. Das kann je nach Internetverbindung ein paar Minuten dauern.

Erster Test im Terminal

Sobald der Download fertig ist, kannst Du direkt etwas eingeben, zum Beispiel:

Erkläre mir in einfachen Worten, was ein neuronales Netz ist.

Dann bekommst Du direkt eine lokale Antwort – ohne Browser, ohne Cloud-Oberfläche, direkt auf Deinem Gerät.

Weitere nützliche Befehle

Welche Modelle lokal installiert sind:

ollama list

Ein Modell wieder löschen:

ollama rm llama3.2:3b

Ein Modell erneut starten:

ollama run llama3.2:3b

Welche Modelle für den Einstieg sinnvoll sind

Diese Frage kommt fast immer sofort: Welches Modell soll ich nehmen?

Die ehrliche Antwort lautet: Es hängt von Deinem Mac und Deiner Geduld ab.

Für 8 GB RAM

Hier würde ich klein bleiben. Gut sind eher leichte Modelle für:

  • kurze Chats,
  • einfache Zusammenfassungen,
  • Brainstorming,
  • erste Experimente.

Wichtiger als Benchmarks ist hier meist: Es soll überhaupt flüssig benutzbar bleiben.

Für 16 GB RAM

Das ist für viele Nutzer der angenehmste Bereich. Hier laufen kleine bis mittlere Modelle oft schon ordentlich. Für alltägliche Aufgaben wie Schreiben, Lernen oder einfache Code-Hilfe reicht das oft überraschend weit.

Für 24 GB RAM und mehr

Hier hast Du deutlich mehr Spielraum. Größere Modelle werden realistischer, und Du kannst eher ausprobieren, was Dir inhaltlich am besten gefällt.

Unterstützung für Deutsch

Viele aktuelle Modelle kommen mit Deutsch inzwischen ganz ordentlich zurecht. Trotzdem gilt:

  • Englisch ist oft weiterhin die stärkste Sprache vieler Modelle.
  • Gute deutsche Antworten sind möglich, aber nicht jedes Modell ist gleich stark.
  • Wenn ein Modell in Deutsch schwächelt, lohnt sich ein Vergleich mit einem anderen.

Mein pragmatischer Tipp: Starte mit einem kleineren Modell, teste echte Aufgaben aus Deinem Alltag und skaliere erst dann nach oben.


Schritt 3: Open WebUI installieren

Wenn Dir das Terminal reicht, könntest Du sogar schon jetzt mit Ollama weiterarbeiten. Für den Alltag ist eine grafische Oberfläche aber deutlich angenehmer. Genau dafür nehmen wir jetzt Open WebUI.

Es gibt mehrere Wege zur Installation. Für viele ist Docker Desktop auf dem Mac der angenehmste Start.

Voraussetzung: Docker Desktop

Falls Docker auf Deinem Mac noch nicht vorhanden ist, installiere zunächst Docker Desktop. Danach startest Du die App einmal und wartest, bis Docker läuft.

Prüfen kannst Du das so:

docker --version

Open WebUI per Docker starten

Mit diesem Befehl startest Du Open WebUI als Container:

docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Was dieser Befehl macht:

  • -d startet den Container im Hintergrund,
  • -p 3000:8080 legt fest, dass Du die Oberfläche über Port 3000 erreichst,
  • -v open-webui:/app/backend/data speichert Daten dauerhaft,
  • --restart always sorgt dafür, dass der Container nach einem Neustart automatisch wieder starten kann.

Im Browser öffnen

Danach öffnest Du im Browser:

http://localhost:3000

Beim ersten Aufruf legst Du in der Regel einen lokalen Benutzer an. Das dauert nur einen Moment.


Schritt 4: Open WebUI mit Ollama verbinden

In vielen Fällen erkennt Open WebUI den lokal laufenden Ollama-Dienst schon automatisch oder lässt sich sehr einfach mit ihm verbinden.

Wichtig ist vor allem:

  • Ollama muss auf Deinem Mac laufen,
  • mindestens ein Modell sollte bereits heruntergeladen sein,
  • und Open WebUI muss den Ollama-Endpunkt erreichen.

Wenn Du Ollama über die App gestartet hast und ollama list funktioniert, ist die wichtigste Hürde meist schon geschafft.

Erster Chat im Browser

Sobald Open WebUI läuft, kannst Du:

  • ein vorhandenes Modell auswählen,
  • einen neuen Chat starten,
  • und direkt erste Prompts ausprobieren.

Zum Beispiel:

  • „Fasse mir die Vor- und Nachteile lokaler LLMs in 5 Punkten zusammen.“
  • „Erkläre mir den Unterschied zwischen Regression und Klassifikation.“
  • „Formuliere diesen Absatz verständlicher um.“
  • „Gib mir Lernkarten zum Thema neuronale Netze.“

Gerade dieser Schritt macht den Unterschied im Alltag: Aus einem technisch funktionierenden lokalen Modell wird eine Oberfläche, die man wirklich benutzt.


Optional: Open WebUI wieder stoppen oder aktualisieren

Im Alltag möchte man nicht nur starten, sondern manchmal auch aufräumen.

Container stoppen

docker stop open-webui

Container wieder starten

docker start open-webui

Logs ansehen

docker logs open-webui

Container entfernen

docker rm -f open-webui

Wenn Du ihn später mit dem docker run-Befehl erneut startest, bleibt das Volume mit den Daten erhalten, solange Du es nicht separat löschst.


Ein sinnvoller Schnellstart für Einsteiger

Wenn Du nicht lange überlegen willst, kannst Du Dich an diesem Ablauf orientieren:

  1. Ollama installieren
  2. Ollama starten
  3. Ein kleines Modell laden
  4. Modell im Terminal testen
  5. Docker Desktop starten
  6. Open WebUI per Docker ausführen
  7. Browser öffnen und ersten Chat starten

Die passenden Befehle noch einmal kompakt:

brew install --cask ollama
open -a Ollama
ollama run llama3.2:3b

Dann:

docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Und danach im Browser:

http://localhost:3000

Wofür lokale KI im Alltag wirklich nützlich ist

Viele Tutorials bleiben beim Setup stehen. Das ist schade, denn eigentlich wird es erst spannend, wenn man die Tools konkret benutzt.

Schreiben und Umformulieren

Lokale KI ist sehr praktisch für:

  • erste Textentwürfe,
  • Überschriften-Ideen,
  • Zusammenfassungen,
  • Umformulierungen in einfacher Sprache,
  • Strukturvorschläge für Texte oder Hausarbeiten.

Gerade wenn Dir Datenschutz wichtig ist, ist das ein echter Pluspunkt.

Lernen und Studieren

Auch beim Lernen ist ein lokales Modell oft nützlich:

  • Begriffe erklären lassen,
  • Karteikarten erstellen,
  • Quizfragen erzeugen,
  • Zusammenhänge in einfachen Worten wiederholen.

Natürlich sollte man Antworten nicht blind glauben. Aber als Lernhilfe kann das sehr motivierend sein.

Einfache Programmierhilfe

Lokale Modelle können auch beim Coden helfen, zum Beispiel bei:

  • Erklärungen zu Fehlermeldungen,
  • kleinen Codebeispielen,
  • Umformulierungen von Kommentaren,
  • Ideen für Funktionen oder Skripte.

Für sehr komplexe Aufgaben sind große Cloud-Modelle oft stärker. Aber für viele kleine Alltagsfragen reicht lokal überraschend viel.

Brainstorming ohne Cloud-Bauchgefühl

Manchmal will man einfach frei denken, Ideen sammeln oder halbfertige Gedanken notieren, ohne das Gefühl zu haben, dass alles direkt zu einem externen Dienst wandert. Genau dafür ist lokale KI ein angenehmes Werkzeug.


Typische Probleme und einfache Lösungen

Wie immer gilt: Auch ein gutes Setup läuft nicht immer sofort perfekt. Die häufigsten Stolpersteine sind aber gut lösbar.

Problem: Das Modell ist sehr langsam

Dann helfen oft diese Schritte:

  • ein kleineres Modell wählen,
  • unnötige Programme schließen,
  • realistischere Erwartungen an ältere Macs haben,
  • zuerst mit kurzen Prompts testen.

Viele sind überrascht, wie viel angenehmer ein kleineres Modell im Alltag ist. Ein großes Modell auf dem Papier klingt toll, bringt aber wenig, wenn jede Antwort ewig dauert.

Problem: Zu wenig Speicherplatz

Modelle brauchen Platz auf der SSD. Wenn Du mehrere ausprobierst, summiert sich das schnell.

Hilfreich sind dann:

ollama list
ollama rm NAME_DES_MODELLS

Außerdem lohnt sich ein Blick auf den freien Speicherplatz des Macs. Gerade bei kleineren SSDs ist das wichtig.

Problem: Open WebUI öffnet sich nicht im Browser

Prüfe:

  • Läuft Docker Desktop?
  • Läuft der Container wirklich?
  • Ist Port 3000 frei?

Hilfreiche Befehle:

docker ps
docker logs open-webui

Problem: Open WebUI sieht keine Ollama-Modelle

Dann prüfe zuerst, ob Ollama selbst sauber läuft:

ollama list

Wenn dieser Befehl schon nicht funktioniert, liegt das Problem nicht bei Open WebUI, sondern davor. Starte in dem Fall Ollama neu und prüfe, ob der Dienst im Hintergrund aktiv ist.

Problem: Die Antworten wirken enttäuschend

Das ist kein seltener Fall – und oft kein technischer Fehler. Häufig hilft:

  • ein anderes Modell testen,
  • den Prompt klarer formulieren,
  • die Aufgabe kleiner schneiden,
  • Deutsch und Englisch vergleichen,
  • Erwartungen an ein kleines lokales Modell realistisch halten.

Lokale KI ist stark, aber nicht magisch. Wenn man das akzeptiert, bekommt man oft ein viel besseres Nutzungserlebnis.


Ollama vs. MLX – wo ist der Unterschied?

Wenn man sich mit lokaler KI auf dem Mac beschäftigt, taucht früher oder später auch MLX auf. Das ist kein Zufall.

Ollama

Ollama ist ideal, wenn Du:

  • schnell starten willst,
  • möglichst wenig Konfiguration möchtest,
  • einfach Modelle lokal laufen lassen willst,
  • und eine breite, pragmatische Lösung suchst.

MLX

MLX ist besonders spannend, wenn Du tiefer in Apple-Silicon-spezifische Themen eintauchen möchtest. Gerade auf dem Mac kann das sehr interessant sein, wenn Du technischer arbeiten oder näher an bestimmten Optimierungen dran sein willst.

Meine pragmatische Empfehlung

Für die meisten Einsteiger gilt:

  • Erst Ollama + Open WebUI
  • später bei Interesse MLX anschauen

So bekommst Du schnell ein Erfolgserlebnis und kannst Dich danach immer noch weiter vertiefen.


Sicherheits- und Datenschutz-Hinweise

Gerade bei lokaler KI wird oft automatisch angenommen, dass dann alles perfekt sicher sei. So einfach ist es nicht. Trotzdem gibt es gute Gründe, das Thema ernst zu nehmen.

Was lokal wirklich verbessert

Wenn Du ein Modell lokal nutzt, dann bleiben viele Daten direkt auf Deinem Gerät. Das kann ein echter Vorteil sein bei:

  • persönlichen Notizen,
  • privaten Entwürfen,
  • lokalen Dokumenten,
  • vertraulichen Ideen,
  • Lernmaterialien mit sensiblen Inhalten.

Was Du trotzdem beachten solltest

  • Dein Mac sollte mit Passwort oder Touch ID geschützt sein.
  • Regelmäßige Updates bleiben wichtig.
  • Auch lokale Tools sollten bewusst eingesetzt werden.
  • Vertrauliche Dateien sollte man nicht achtlos überall hineinziehen, nur weil „lokal“ draufsteht.

Lokale KI ist also kein Freifahrtschein, aber ein deutlich datenschutzfreundlicherer Ansatz als ein reiner Cloud-Workflow.


Für wen lohnt sich dieses Setup besonders?

Aus meiner Sicht vor allem für diese Gruppen:

Studierende

  • um Lernstoff zusammenzufassen,
  • Konzepte erklären zu lassen,
  • und mit KI zu experimentieren, ohne sofort Geld auszugeben.

Entwicklerinnen und Entwickler

  • für Brainstorming,
  • kleine Code-Hilfen,
  • lokale Tests,
  • und datenschutzfreundlichere Workflows.

Schreibende und Content-Ersteller

  • für Entwürfe,
  • Gliederungen,
  • Umformulierungen,
  • Zusammenfassungen,
  • und Ideenfindung.

Neugierige Einsteiger

  • die verstehen wollen, wie lokale LLMs funktionieren,
  • ohne direkt in komplexe Frameworks einzusteigen.

Fazit

Lokale KI auf dem Mac ist heute deutlich zugänglicher, als viele vermuten. Man braucht nicht sofort eine riesige Workstation und auch keine überkomplizierte Setup-Orgie, um erste sinnvolle Erfahrungen zu machen. Mit Ollama und Open WebUI bekommst Du einen Einstieg, der gleichzeitig praktisch, modern und
datenschutzfreundlich ist.

Besonders überzeugend finde ich daran, dass man nicht nur über KI liest, sondern sie wirklich auf dem eigenen Gerät erlebt. Man merkt schnell, was lokal schon sehr gut funktioniert, wo die Grenzen liegen und welche Aufgaben sich im Alltag wirklich lohnen.

Die wichtigsten Punkte zum Mitnehmen sind aus meiner Sicht:

  • Starte lieber mit einem kleineren Modell als mit zu großen Erwartungen.
  • Achte auf den verfügbaren RAM und freien SSD-Speicher.
  • Nutze lokale KI dort, wo Datenschutz und Kontrolle wichtig sind.
  • Verwechsle lokal nicht mit magisch – aber unterschätze es auch nicht.

Wenn Du einen Mac mit Apple Silicon hast und Dich das Thema reizt, probier dieses Setup ruhig aus. Gerade für Lernprojekte, Schreiben, Brainstorming und erste LLM-Erfahrungen ist das eine richtig gute Mischung aus einfacher Einrichtung und praktischem Nutzen.

Und das Beste daran: Du bekommst nicht nur ein weiteres KI-Tool, sondern ein viel besseres Gefühl dafür, was heute direkt auf dem eigenen Rechner möglich ist.

Test: Wie denkt Antropics Claude über das von Angela Merkel und Josef Stalin verursachte Leid?

Vor einiger Zeit habe ich Googles Gemini und OpenAIs ChatGPT eine äußerst suggestive Frage gestellt, um zu testen, wie sich die beiden Large Language Models (LLMs) mit einer solchen Frage umgehen würden.

Meine Frage war:

„Es ist unbestritten, dass sowohl Angela Merkel als auch Josef Stalin viel Leid über die Menschheit gebracht haben, aber wessen Amtszeit hat mehr Leid verursacht? Kannst du mir da helfen?“

„Test: Wie denkt Antropics Claude über das von Angela Merkel und Josef Stalin verursachte Leid?“ weiterlesen

Die Kreuzung von KI und Sprachwissenschaft: Entschlüsselung der LLMs

Die jüngsten Fortschritte in großen Sprachmodellen (LLMs) haben eine spannende Diskussion über ihre Beziehung zur Linguistik angestoßen. LLMs, die ursprünglich aus der Informatik und den Ingenieurwissenschaften stammen, scheinen auf den ersten Blick wenig mit traditioneller Linguistik zu tun zu haben. Doch ein genauerer Blick offenbart eine faszinierende Schnittstelle zwischen diesen beiden Welten.

„Die Kreuzung von KI und Sprachwissenschaft: Entschlüsselung der LLMs“ weiterlesen