Joseph Weizenbaum, Ex-Professor des renommierten Massachusetts Institute of Technology (MIT), ist zum Grand Seigneur“ der kritischen Informatik avanciert. Im Interview mit Ulrich Hottelet nimmt er Stellung zu ethischen und faktischen Grenzen von Informationstechnologien.
 
 
Weizenbaum mahnt seit den 60er Jahren den
kritischen Umgang mit Computern und die Verantwortung des Wissenschaftlers
für sein Tun an. Damals wurde er mit dem von ihm entwickelten
Dialogprogramm Eliza weltweit bekannt.
politik-digital.de: Sie mahnen seit langem mehr Verantwortung der Informatiker
für ihr Tun und dessen Folgen an. Wie kann man gewährleisten,
dass Informatikern bereits während ihres Studiums diese gesellschaftliche
Verantwortung nahegebracht wird und sie zum Reflektieren angehalten
werden?

Weizenbaum: Da bin ich ziemlich pessimistisch.
Es ist ja nicht einfach. Es wird zwar viel darüber geredet,
aber letztlich herrscht an den Universitäten und in der gesamten
Gesellschaft eine unkritische Haltung vor. Die Entschuldigung lautet:
Weil wir nicht wissen können, wie unsere Arbeit genutzt wird,
gibt es keine Grenzen dafür. Aber die Schwierigkeit, dabei
eine deutliche Linie zu zeichnen, bedeutet nicht, dass man überhaupt
kein Urteil fällen kann.

Sie kritisieren das Internet wegen seiner Desinformationsflut.
Wie kann man da gegensteuern? Viele Weblogs zum Beispiel bieten
inhaltlich kaum Qualität…

Der Meinung bin ich auch.

Wie kann man aber beim Gegensteuern gewährleisten,
dass die Meinungsfreiheit gewahrt bleibt?

Ich denke, das ist nicht
wesentlich anders als beim Schrott, dem wir täglich in den
Medien begegnen. Ich kann mich an keinen Bericht in den Medien über
ein Thema erinnern, in dem ich mich sehr gut auskenne, der keine
groben Fehler enthielt. Nie! Egal, ob es die New York Times oder
die Bildzeitung war. Dann kommt auch noch die Frage nach der Relevanz:
Was hat das mit meinem Leben zu tun? Es gibt keine Qualitätskontrolle
im Internet, aber ich weiß auch nicht, ob sie möglich
ist. Ich bin täglich im Internet und ich bin immer wieder tief
beeindruckt, was ich dort finde, was mir so wertvoll ist. Man muss
aber bei der Nutzung selbst in der Lage sein, eine Frage zu stellen.
Das ist wie in der Physik. Man muss der Natur eine Frage stellen.
Eine gute Frage hat auch immer eine Hypothese.

Der Optimismus früherer Zeiten, dass der Computer
in der Lage sein wird, menschliche Sprache komplett zu verstehen,
ist ja abgeflaut. Wieviel muss er denn verstehen, um eine nützliche
Schnittstelle zum Menschen zu haben?

Dazu möchte ich zwei
Sachen sagen. Die führenden Kräfte in der Künstlichen-Intelligenz-Community
– ich nenne sie die künstliche Intelligentsia, Leute
wie Norman Minsky und Hans Moravek – in den führenden
Institutionen denken ganz anders: Jeder Aspekt der Realität
ist berechenbar und natürlich können wir einen künstlichen
Menschen bauen. Es wird schwer daran gearbeitet, Roboter herzustellen.
Der Begriff Verstehen ist sehr kompliziert. Im engen Kontext kann
der Computer da schon heute viel leisten, zum Beispiel bei der Hotelreservierung,
wo es ein beschränktes Vokabular gibt, oder bei Hotlines.

In die Zukunft gesprochen: Sehen Sie eine Grenze der
Verständnisfähigkeit für Computer und dafür,
wo er sinnvoll eingesetzt werden kann und wo nicht?

Ja, immer wenn es um Beurteilungsfähigkeit
und Würde geht. Wo es Regeln geben muss, vielleicht aber keine
festen Regeln. Ich bin erstaunt, dass viele nicht wissen, dass Menschen
vieles nicht wissen. Das bedeutet, wir können es auch nicht
programmieren und einer Maschine beibringen. Ich denke daran: Was
passiert, wenn Sie eine Hand auf Ihrer Schulter spüren? Da
muss ich doch fragen: Unter welchen Umständen spüre ich
diese Hand? Was ist zuvor passiert? Das Gefühl dabei kann man
unmöglich programieren. Wir müssen verstehen, dass der
Mensch und seine Gefühle nicht berechenbar sind und dass jeder
Mensch ein Sonderfall ist.