Seit 25 Jahren sind Sprachmodelle (LLM) und Künstliche Intelligenz ein faszinierender Teil meines beruflichen Alltags. Den Anstoß dazu gab damals meine Linguistik-Professorin mit einer wissenschaftlichen Arbeit über Noam Chomsky und seiner Theorie der Universalgrammatik.
Es war kein typischer Montag. Dieser 20. März 2000. Ich erinnere mich noch, dass ich gerade meine zweite Hospitanz beim Radio abgeschlossen hatte und im Begriff war, meine erste Auslandsreise als Reporter vorzubereiten. Diese sollte den krönenden Abschluss meiner Semesterferien bilden. Doch bevor ich starten konnte, musste ich noch meine wissenschaftlichen Arbeiten aus dem letzten Semester abschließen, darunter auch eine in Sprachwissenschaft.
Also nach dem Frühstück den Laptop gepackt und auf in die Eichstätter Universitätsbibliothek. Dort tankte ich zunächst im Wintergarten bei der Zeitungslektüre noch etwas Kraft und setzte mich dann an meinen Laptop. Vor mir auf dem Tisch ein Stapel Bücher, darunter dieses eine von Noam Chomsky, das von nun an Teil meines Lebens werden sollte. Es trug den Titel Strukturen der Syntax (Syntactic Structures; 1957) und eröffnete mir den Einstieg in eine faszinierende Welt der Sprachmodelle und der KI. Oder, wie es damals hieß: Computerlinguistik. Sie ist ein Teilgebiet der Sprachwissenschaft und hat mich seitdem begleitet. Genau so wie diese eine Erkenntnis aus dem Buch: Sprache ist programmierbar.
Wenn ich mir vorstelle, dass ich bald, also ab April, mit einem handelsüblichen Mac – natürlich nur mit den M-Chips ;) – KI-Anwendungen problemlos ausführen kann, ohne meine Daten an ein wildfremdes Unternehmen geben zu müssen, dann wird mir immer wieder bewusst, welch technologischer Fortschritt notwendig war, um die Idee von Noam Chomsky Wirklichkeit werden zu lassen. Mit meinem damaligen Laptop oder auch den zur Verfügung stehenden Hochleistungsrechnern ein Ding der Unmöglichkeit. Aber Chomskys Theorie hatte einen riesen Vorteil: Auf dieser Grundlage konnten auch mit den damaligen technologischen Möglichkeiten bereits erste spannende Ansätze verfolgt werden, die mich faszinierten.
Ich selbst war und bin technikaffin und ich hatte schon früh das Internet für mich entdeckt. Damals zu meiner Studienzeit entwickelte sich gerade eine weitere wichtige Säule der künstlichen Intelligenz: Big Data. Die Schaffung des World Wide Webs ermöglichte die Erstellung sehr großer Datensätze, die für Big Data-Anwendungen oder für das Training der KI-Anwendungen gebraucht werden. Wir selbst nutzen Big Data auch täglich in der Agentur für den Erfolg unserer Kunden. Die Anwendung heißt PR:Edictive.SEO. Mehr dazu in unserem PR:Emium-Impuls …
Von damals aus betrachtet, sollte es noch 11 Jahre dauern bis im Bereich des maschinellen Lernens der entscheidende Durchbruch gelang. Seit diesem Zeitpunkt steht die dafür notwendige Rechenleistung zur Verfügung. Mit dabei auch deutsche Unternehmen. Ein Beispiel dafür ist DeepL. Doch auch wenn aktuell viele Akteure sich aus dem Training und der Sprachmodell-Entwicklung aufgrund der hohen Kosten zurückgezogen haben, sind trotzdem die Grundlagen dafür gelegt, KI sicher und gewinnbringend im eigenen Unternehmen einzusetzen. Dabei unterstütze ich mit meinem Team auch, speziell im Bereich Marketing und Vertrieb. Getreu dem Motto: Traue keinem Sprachmodell, das Du nicht selbst (mit-)trainiert hast ;)
Dieses Jubiläum möchte ich mit Ihnen und Euch gebührend feiern und mein Wissen teilen: Zum Beispiel mit einer Keynote, einem Impulsvortrag oder einem Seminar (Inhouse-Schulung). Darin zeige ich anschaulich und praxisnah, wie sich KI effizient und effektiv im Marketing und Vertrieb einsetzen lässt. Wo die Grenzen der aktuellen Sprachmodelle liegen, rechtlich genau so wie sicherheitsrelevant, ist natürlich auch ein Thema. Mein Ziel dabei ist: Die Menschen befähigen, KI sicher, gewinnbringend und mit Freude zu nutzen. Im beruflichen wie privaten Kontext.