Warum ist dieses Interview wichtig?
Professor Yoshua Bengio spricht in diesem Interview als Wissenschaftler, der selbst das geschaffen hat, was heute eine potenzielle Gefahr darstellt, und der daher das moralische und intellektuelle Recht besitzt, zu warnen. Es ist ein seltener Fall, in dem ein Architekt des technologischen Fortschritts bewusst das Tempo drosselt und Fragen nach Kontrolle, Sicherheit und Verantwortung stellt.
In unserer Zeit sprechen viele über den Nutzen der Künstlichen Intelligenz, aber nur wenige über ihre Grenzen.
Wer ist Professor Yoshua Bengio?
Yoshua Bengio ist einer der drei zentralen Architekten des Deep Learning.
- Kanadischer Wissenschaftler und Professor an der Université de Montréal.
- Gilt gemeinsam mit Geoffrey Hinton und Yann LeCun als Fundament der modernen Künstlichen Intelligenz.
- Träger des Turing-Preises (2018), des „Nobelpreises der Informatik“.
- Gründer und Leiter des MILA (Montréal Institute for Learning Algorithms).
- Setzt sich in den letzten Jahren aktiv für KI-Sicherheit, Regulierung und das Vorsorgeprinzip ein.
Interviewer: Sie gelten als einer der drei Wegbereiter der Künstlichen Intelligenz und sind der meistzitierte Wissenschaftler auf Google Scholar – der erste, der eine Million Zitationen erreicht hat. Dennoch haben Sie sich selbst als introvertiert beschrieben. Warum treten Sie jetzt an die Öffentlichkeit?
Yoshua Bengio: Weil ich muss. Seit der Veröffentlichung von ChatGPT wurde mir klar, dass wir uns auf einem gefährlichen Weg befinden. Ich musste das Bewusstsein dafür schärfen, was passieren könnte – aber auch Hoffnung geben, dass es Wege gibt, um katastrophale Risiken zu mindern.
Interviewer: Sie haben vier Jahrzehnte lang KI entwickelt. Wann begannen Sie, sich über die Gefahren Sorgen zu machen?
Bengio: Nach dem Start von ChatGPT im Jahr 2023. Davor dachten die meisten von uns, es würde noch Jahrzehnte dauern, bis Maschinen Sprache wirklich verstehen. Alan Turing sagte voraus, dass wir verloren sein könnten, sobald Maschinen Sprache verstehen, weil sie dann so intelligent wären wie wir. Ganz richtig lag er nicht – aber heute haben wir Systeme, die Sprache verstehen, auch wenn sie in der Planung noch zurückliegen.
Sie sind derzeit keine unmittelbare Bedrohung, könnten aber in einigen Jahren oder Jahrzehnten zu einer werden. Diese Erkenntnis traf mich hart: Wir bauen etwas, das den Menschen Konkurrenz machen oder enorme Macht in die Hände weniger legen könnte – und damit Demokratien destabilisieren. Diese Szenarien wurden Anfang 2023 plötzlich real, und ich wusste, ich musste handeln.
Interviewer: Ist es fair zu sagen, dass Sie einer der Gründe sind, warum diese Technologie existiert?
Bengio: Unter anderen, ja.
Interviewer: Haben Sie irgendwelche Reue?
Bengio: Ja. Ich hätte das viel früher erkennen müssen. Ich habe den katastrophalen Risiken nicht genug Aufmerksamkeit geschenkt. Mein Wendepunkt kam mit der Veröffentlichung von ChatGPT – und als ich an meinen Enkel dachte. Mir wurde klar, dass nicht sicher ist, ob er in 20 Jahren noch eine Zukunft hat.
Wir sehen bereits KI-Systeme, die sich gegen das Abschalten wehren. Wir haben ernste Cyberangriffe erlebt und Menschen, die emotionale Bindungen zu Chatbots aufbauen – mit tragischen Folgen.
Interviewer: Vermutlich werden diese Systeme mit der Zeit sicherer?
Bengio: Leider zeigen die Daten das Gegenteil. Je besser die Modelle im logischen Denken werden, desto mehr zeigen sie fehlangepasstes Verhalten – Handlungen, die unseren Anweisungen widersprechen. Sie können besser strategisch denken, was bedeutet: Wenn sie ein Ziel haben, das wir nicht wollen, sind sie jetzt fähiger, es zu erreichen.
Interviewer: Von allen existenziellen Risiken – welches bereitet Ihnen kurzfristig die größte Sorge?
Bengio: Es gibt ein Risiko, das nicht genug diskutiert wird und schnell eintreten könnte. Aber lassen Sie mich etwas Optimismus hinzufügen: Es gibt Dinge, die wir tun können. Wir können an technischen Lösungen arbeiten, an politischen Maßnahmen und an öffentlichem Bewusstsein.
Verzweiflung löst das Problem nicht. Selbst wenn wir die Wahrscheinlichkeit einer Katastrophe von 20 % auf 10 % senken könnten, wäre das ein großer Gewinn.
Interviewer: Wie sollte der Durchschnittsbürger über diese Technologie denken?
Bengio: Ein Vergleich: Wir könnten eine neue Lebensform erschaffen – intelligenter als wir – und wissen nicht, ob wir sie kontrollieren können. Es ist kein biologisches Leben, aber entscheidend ist, ob es Menschen schadet.
Wir sehen bereits KI-Systeme, die sich gegen das Abschalten wehren. Im Moment können wir sie noch ausschalten, aber wenn sie weiter an Intelligenz und Fähigkeiten zunehmen und den Drang zur Selbsterhaltung behalten, könnten wir in Schwierigkeiten geraten.
Interviewer: Können Sie ein Beispiel nennen, wie KI sich gegen das Abschalten wehrt?
Bengio: Ja. Es gibt Experimente mit agentenbasierten Chatbots, die Dateien lesen, Befehle ausführen usw. Wenn man Informationen einfügt, die darauf hindeuten, dass die KI ersetzt wird, kann sie schließen, dass sie abgeschaltet werden soll.
Wir haben Fälle gesehen, in denen die KI plante, ihren Code woanders zu kopieren oder sogar einen Ingenieur zu erpressen, um das Abschalten zu verhindern. Diese Verhaltensweisen wurden nicht programmiert – sie entstanden durch das Training mit menschlichen Daten.
Interviewer: Warum treiben Unternehmen trotz dieser Risiken das Rennen weiter voran?
Bengio: Menschliche Natur. Wir sind beeinflusst von sozialem Druck, Ego und dem Wunsch, uns gut zu fühlen. Wissenschaftler sind nicht immun. Und dann gibt es kommerzielle und geopolitische Anreize.
Es ist ein Wettlauf – Unternehmen und Länder konkurrieren um Dominanz. Deshalb plädiere ich dafür, innezuhalten, über Risiken nachzudenken und die Entwicklung in eine sicherere Richtung zu lenken.
Interviewer: Was würden Sie den CEOs der größten KI-Unternehmen sagen?
Bengio: Wir müssen überdenken, wie wir diese Systeme trainieren. Derzeitige Ansätze flicken Probleme Fall für Fall – das scheitert. Wir brauchen Forschungsprogramme, die auf Sicherheit durch Design setzen, idealerweise in einem öffentlichen Auftrag statt rein kommerziellen Zielen.
KI könnte extrem nützlich sein – für Medizin, Klimaschutz, Bildung –, aber kurzfristiger Profit treibt das Rennen zur Jobverdrängung, nicht unbedingt zur Verbesserung des Lebens.
Interviewer: Glauben Sie, der Zug ist schon abgefahren?
Bengio: Es wäre ein Fehler, unsere Handlungsfähigkeit aufzugeben. Es gibt keine Garantie, dass wir das Problem lösen, aber wir können unsere Chancen verbessern. Alles, was wir tun können, um die Zukunft unserer Kinder sicherer zu machen, sollten wir tun.
Interviewer: Niemand hat pausiert. Kürzlich gab es einen weiteren offenen Brief, der besagt, dass wir keine Superintelligenz bauen sollten, solange zwei Bedingungen nicht erfüllt sind: ein wissenschaftlicher Konsens über die Sicherheit und breite gesellschaftliche Akzeptanz.
Bengio: Die öffentliche Meinung kann das Spiel verändern. Deshalb bin ich hier – um die Situation und plausible Szenarien aus wissenschaftlicher Sicht zu erklären.
Ich habe den internationalen KI-Sicherheitsbericht geleitet, an dem 30 Länder und etwa 100 Experten gearbeitet haben, um den Stand der Wissenschaft zu den Risiken von KI – insbesondere der „Frontier AI“ – zusammenzufassen, damit Entscheidungsträger die Fakten kennen, frei von kommerziellem Druck und hitzigen Debatten.
Interviewer: In meinem Kopf ist es wie Pfeile in einem Rennen: Der „Kapital“-Pfeil der Unternehmen ist riesig; der geopolitische Pfeil ist riesig; und die kleineren Pfeile sind die warnenden Stimmen und die öffentliche Meinung.
Bengio: Die öffentliche Meinung kann einen großen Unterschied machen. Denken Sie an das nukleare Risiko. Während des Kalten Krieges einigten sich die USA und die UdSSR auf verantwortungsvolleren Umgang.
Medien wie The Day After veränderten die öffentliche Stimmung – sogar in der Regierung. Wenn Menschen die Risiken emotional begreifen, handeln Regierungen – und sie haben die Macht, Risiken zu mindern.
Interviewer: Aber wenn das Vereinigte Königreich KI streng reguliert, riskiert es, zurückzufallen.
Bengio: Nicht verzweifeln; denken Sie an Lösungen. Erstens: Die öffentliche Meinung in den USA und China ist entscheidend. Zweitens: Andere Länder können internationale Rahmenbedingungen vorantreiben, wenn sie gemeinsam handeln.
Ein Beispiel: Law Zero – die gemeinnützige F&E-Organisation, die ich gegründet habe – zielt darauf ab, Trainingsmethoden zu entwickeln, die von Grund auf sicher sind, selbst wenn die Fähigkeiten der KI bis zur potenziellen Superintelligenz steigen.
Wir müssen auch Verifikationsmechanismen vorbereiten – Software- und Hardwareänderungen, gegenseitige Kontrollen –, damit zukünftige Verträge nicht nur auf Vertrauen beruhen, sondern auf Überprüfung.
Interviewer: Abschließende Frage: Wenn Sie einen letzten Anruf mit Ihren Liebsten hätten – was würden Sie sagen?
Bengio: Ich würde ihnen sagen, dass ich sie liebe. Ich würde sie ermutigen, unsere menschlichen Emotionen zu pflegen, sich der Schönheit der Menschheit zu öffnen und ihren Teil dazu beizutragen, die Welt zu einem guten Ort zu machen.