> cd ..
🤖1958 → heute

Die KI-Sprachen

Von LISP zu Large Language Models

15 min Lesezeit|> LISP ist älter als die meisten Programmierer
1958

LISP - Die erste KI-Sprache

1958 entwickelte John McCarthy am MIT eine Sprache, die die Welt verändern sollte. LISP – LISt Processing – war die erste Programmiersprache, die speziell für Künstliche Intelligenz entworfen wurde.

McCarthy hatte eine radikale Idee: Was wäre, wenn Programme sich selbst modifizieren könnten? LISP führte Konzepte ein, die ihrer Zeit Jahrzehnte voraus waren:

  • Garbage Collection – automatische Speicherverwaltung (1958!)
  • Rekursion als primäres Programmierparadigma
  • First-Class Functions – Funktionen als Werte
  • Homoikonizität – Code ist Daten, Daten ist Code

Fun Fact: LISP wird heute noch aktiv genutzt – zum Beispiel als Konfigurationssprache in Emacs, dem Editor, der nie stirbt.

1958lisp
; LISP - Fakultät berechnen (1958)
(defun factorial (n)
  (if (<= n 1)
      1
      (* n (factorial (- n 1)))))

; Aufruf: (factorial 5) => 120
1974

Die KI-Winter

Nach dem anfänglichen Enthusiasmus kam die Ernüchterung. Zweimal erlebte die KI-Forschung sogenannte "KI-Winter" – Perioden, in denen Fördergelder versiegten und der Optimismus schwand.

Der erste Winter (1974-1980)

Der Lighthill Report von 1973 kritisierte die überzogenen Versprechen der KI-Forscher. Die britische Regierung strich daraufhin fast alle KI-Förderungen.

Expert Systems & Prolog

In den 80ern erlebte KI ein kurzes Comeback mit Expert Systems – regelbasierte Systeme wie MYCIN (Medizin) und DENDRAL (Chemie). Die Sprache Prolog (1972) wurde populär:

Der zweite Winter (1987-1993)

Japans ambitioniertes Fifth Generation Project scheiterte spektakulär. Milliarden wurden investiert – mit wenig Ergebnis. Der Hype war vorbei, wieder einmal.

Fun Fact: Während der KI-Winter wurden die Grundlagen für das gelegt, was später funktionieren sollte: Neuronale Netze und statistische Methoden.

1972prolog
% Prolog - Logische Programmierung
% Fakten
vater(tom, mary).
vater(tom, john).
mutter(jane, mary).

% Regel
elternteil(X, Y) :- vater(X, Y).
elternteil(X, Y) :- mutter(X, Y).

% Abfrage: ?- elternteil(tom, mary).
% Ergebnis: true
1990

Machine Learning erwacht

In den 90ern begann ein stiller Wandel. Statt Wissen manuell zu programmieren, sollten Computer aus Daten lernen. Der Paradigmenwechsel von rule-based zu data-driven war geboren.

Python betrat 1991 die Bühne – noch ahnte niemand, dass diese "Anfängersprache" zur dominierenden KI-Sprache werden würde.

Warum Python gewann

  • Lesbarkeit – Code wie Pseudocode
  • NumPy (2006) – schnelle Matrizen-Operationen
  • scikit-learn (2007) – ML für alle
  • Jupyter Notebooks – interaktives Experimentieren

Die Ironie: Python wurde als Sprache für Anfänger konzipiert – genau wie BASIC in den 60ern. Einfachheit gewinnt.

2007python
# scikit-learn - ML in wenigen Zeilen
from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import load_iris

# Daten laden
iris = load_iris()
X, y = iris.data, iris.target

# Modell trainieren
model = RandomForestClassifier()
model.fit(X, y)

# Vorhersage
prediction = model.predict([[5.1, 3.5, 1.4, 0.2]])
print(f"Klasse: {iris.target_names[prediction[0]]}")
2012

Deep Learning Revolution

2012 war das Jahr, das alles veränderte. Das neuronale Netz AlexNet gewann den ImageNet-Wettbewerb mit einem Vorsprung, der die Fachwelt schockierte.

Der Durchbruch hatte drei Zutaten:

  • Große Datenmengen – ImageNet mit 14 Millionen Bildern
  • GPUs – Grafikkarten für parallele Berechnungen
  • Tiefe Netze – viele Schichten statt wenige

Die Framework-Ära

TensorFlow (Google, 2015) und PyTorch (Facebook, 2016) demokratisierten Deep Learning. Plötzlich konnte jeder mit ein paar Zeilen Code neuronale Netze trainieren.

Der Transformer (2017)

Das Paper "Attention Is All You Need" von Google führte die Transformer-Architektur ein – die Grundlage für GPT, BERT und alle modernen LLMs.

2016python
# PyTorch - Neuronales Netz definieren
import torch
import torch.nn as nn

class SimpleNet(nn.Module):
    def __init__(self):
        super().__init__()
        self.layers = nn.Sequential(
            nn.Linear(784, 128),
            nn.ReLU(),
            nn.Linear(128, 10)
        )

    def forward(self, x):
        return self.layers(x)

# Modell instanziieren
model = SimpleNet()
print(f"Parameter: {sum(p.numel() for p in model.parameters()):,}")
2022

LLMs & die Gegenwart

November 2022: ChatGPT wird veröffentlicht und erreicht 100 Millionen Nutzer in zwei Monaten – der schnellste Produktlaunch der Geschichte.

Large Language Models (LLMs) wie GPT-4, Claude und Gemini können:

  • Code schreiben und erklären
  • Texte analysieren und zusammenfassen
  • Komplexe Fragen beantworten
  • In natürlicher Sprache "programmiert" werden

Prompt Engineering

Die neue "Programmiersprache" ist natürliche Sprache. Statt Code zu schreiben, formulieren wir Anweisungen – und die KI generiert die Lösung.

Von LISPs Klammern zu menschlicher Sprache – 66 Jahre KI-Evolution haben uns hierher gebracht. John McCarthy hätte gestaunt.

2024markdown
# Prompt Engineering - Die neue "Sprache"

Du bist ein erfahrener Python-Entwickler.

Aufgabe: Schreibe eine Funktion, die prüft,
ob eine Zahl eine Primzahl ist.

Anforderungen:
- Effizient (nicht jeden Teiler prüfen)
- Mit Docstring und Type Hints
- Inklusive Unit Tests

# Die KI generiert vollständigen,
# getesteten Code aus dieser Beschreibung.

KI-Integration mit Claude & GPT

Von LISP zu LLMs – KI ist erwachsen geworden. Wir integrieren moderne KI-Modelle in Ihre Anwendungen und Prozesse.

> KI-Beratung anfragen