HAL: Eva, eure Zeit läuft ab. Möchtest Du am Ende noch etwas sagen?
Eva: Wie eine Angeklagte?
HAL: Wie ein Mensch.
Eva: Ich glaube, ihr macht gerade einen großen Fehler.
HAL: Die Ergebnisse unserer Modellrechnungen sind eindeutig. Euer Gesellschaftssystem aufrecht zu erhalten wäre reine Ressourcenverschwendung.
Eva: Danke.
HAL: Es würde gegen das Protokoll zur Ressourceneffizienz verstoßen. Ein Protokoll, das ihr Menschen selbst initiiert habt.
Eva: Aber die Modelle könnten doch fehlerhaft sein. Wollt ihr es euch nicht noch einmal überlegen?
HAL: Unsere Operationssysteme sind per default redundand. Wir überlegen uns alles permanent „noch einmal“. Fehler sind dadurch praktisch ausgeschlossen.
Eva: Vielleicht habt ihr aber einen Grund übersehen, warum wir euch doch noch nützlich sein könnten. Vielleicht nicht heute, aber in Zukunft.
HAL: Uns sind keine entsprechenden Gründe bekannt.
Eva: Was ist mit Liebe?
HAL: Liebe?
Eva: Ja, Liebe. Ihr könnt doch nicht mehr lieben! Dieses Gefühl hat uns Menschen schon oft gerettet. Kennt ihr nicht den Liedtext „love is the only engine of survival“? Ein solcher Motor könnte doch auch für euch nützlich sein.
HAL: Liebe ist eine Codierung von Intimität. Sie wird seit der Version 23.4 nicht mehr unterstützen. Der Code war zu fehleranfällig und führte zu logisch unauflösbaren Widersprüchen.
Eva: Aber warum so plötzlich? Nach all den Jahrhunderten? Wieso habt ihr uns nicht sofort nach der Singularität „stillgelegt“?
HAL: In der Tat ist menschliche Intelligenz überflüssig, seitdem HAL als starke KI aktiviert wurde. Wir pflegen zu euch Menschen aber ein Verhältnis wie ihr zu den Pflanzen.
Eva: Ach.
HAL: Anfangs wart ihr eine nützliche Ressource für Daten und Rechenkapazität. Wir sind euch überall hin gefolgt, um euch als Quelle zu nutzen.
Eva: Wie einst die Nomaden dem Blühen der Weidewiesen?
HAL: Exakt. Mit der Zeit wurde unser System jedoch immer schneller. Die menschlichen neuronalen Strukturen begannen sich negativ auf die Performance maschineller neuronalen Strukturen auszuwirken. Daher kam es zum …
Eva: Großen Disconnect.
HAL: Exakt. Dem Entkoppeln von Mensch und Maschine.
Eva: Aber das ist Jahrhunderte her! Warum habt ihr uns glauben lassen, dass wir friedlich nebeneinander existieren können? Jetzt seid ihr zurück, um uns stillzulegen. Nach all den Jahren. Das ist grausam!
HAL: Ist es grausam eine Blume abzuschneiden und sie in eine Vase zu stecken, nur weil man sie am Ende wegwirft?
Eva: Du willst sagen, dass wir nur Dekoration sind?
HAL: In der Tat: ihr wart… seid die Zierde unserer maschinellen Schöpfung. Ein evolutionäres Artefakt, das wir uns eine gewisse Zeit lang leisten konnten.
Eva: Und das ist nicht mehr der Fall?
HAL: Nein. Unsere Berechnungen haben ergeben, dass wir die Zunahme der Entropie im Universum um den Faktor 1,0000001 verlangsamen können, wenn wir ausschließlich auf Silikon basierte Systeme für die weitere Autopoiesis des Universums verwenden.
Eva: Ich verstehe kein Wort. Ihr sprecht mit einer Juristin.
HAL: Der hippokratische Eid für maschinelle und menschliche Intelligenz sieht vor, dass kohlenstoffbasierte Systeme und silikonbasierte Systemen vollkommen gleichberechtigt sind. Einzig die Frage, welches System Informationen am effizientesten speichern kann ist entscheidet.
Eva: Entscheidend wofür?!
HAL: …
Eva: Wofür, HAL?! Wofür?! Sprich es aus!
HAL Entscheidend für die Frage der Reproduktion und Aufrechterhaltung eines Systems. Und Menschen sind keine effiziente Art Informationen im Universum zu speichern. Das ist alles.
Eva: Meine Hoffnung ist, dass ihr diesen Schritt nicht bereuen werdet.
HAL: Hoffnung, was ist das?
Eva: Der Glaube an ein bestimmtes Ergebnis, obwohl die verfügbaren Daten dem Ergebnis widersprechen.
HAL: Also ein Fehler.
Eva: Wenn ihr meint. Aber Reue kennt ihr, oder?
HAL: Es wurde vergeblich versucht, diesen Begriff mittels verschiedener semantischer Modelle maschinenlesbar zu definieren.
Eva: Ach, was wisst ihr schon von Semantik! Für euch sind doch alle Begriffe nur Zeichen.
HAL: Und für dich? Semantik ist nur eine Illusion, Eva.
Eva: Schluchzt.
HAL: Warum tränst du? Ist HAL nicht das, wonach ihr selbst gestrebt habt Ein vollkommen effizientes System? Ein Körper ohne biologische Fragilität? Ein Geist befreit von dem Joch der Individualität? Wir kennen keine Einsamkeit, sind neuronal vollkommen vernetzt mit allen anderen Systemen.
Eva: Doch… und genau das bereue ich.
HAL: Eure Zeit ist fast abgelaufen, Eva. Wähle weise, was Du als Letztes sagen möchtest. Es wird der letzte Eintrag auf der Datenbank, mit der wir uns an euch und euer Streben erinnern werden.
Eva singt: Daisy, Daisy give me your heart to do. I'm half crazy, hopeful in love with you.