Logo go-leon* websolutions gmbh
Unterer Quai 23
CH-2500 Biel-Bienne 1
fon: +41 32 323 37 26
fax: +41 32 323 15 31
mail: info@go-leon.ch
web: www.go-leon.ch


Informationstechnologie als philosophische Herausforderung

Kaum eine andere technische Entwicklung hat in jüngster Zeit die menschliche Arbeits- und Lebenswelt gleichermassen verändert wie der Computer. Wirft man einen Blick auf die Forschung, wird deutlich, dass ein Ende dieser Entwicklung noch nicht abzusehen ist. Für die Philosophie stellen sich hier insbesondere Fragen im Rahmen der sogenannten Technikfolgenabschätzung, was hier in einem Überblick deutlich gemacht werden soll.

Wir bewegen uns hin zu einer Maschinenwelt. Will man Apologeten wie Ray Kurzweil glauben, ist dies aber nicht die seelenlose, automatisierte Welt, wie sie zu Beginn des 20 Jahrhunderts befürchtet und von Filmen wie „Modern Times“ so hervorragend dargestellt wurde. Nein, es droht eine Welt der „beseelten Maschinen“, in welcher Computer wie Roboter uns bald in jeder Hinsicht überflügeln . Man mag solche Überlegungen noch als pure Spekulation abtun. Ein Blick auf die moderne Forschung zeigt aber, dass das Potenzial der Informationstechnologie noch bei weitem nicht erschöpft ist:

Gewiss, die Erfahrung lehrt eine gewisse Vorsicht gegenüber den Versprechungen der Wissenschaft. Bei vielen Anwendungen sind eine Reihe von sehr schwierigen Problemen zu lösen. So nützt es beispielsweise nichts, Transistoren aus Einzelmolekülen zu bauen, wenn man diese nicht richtig verdrahten kann – ja was heisst denn schon „verdrahten“ auf molekularer Ebene. Dennoch ist die Zuversicht der Wissenschaftler berechtigt, wonach das sogenannte „Moorsche Gesetz“ noch einige Jahre in Kraft bleiben wird. Dieses empirische, vom Intel-Mitbegründer Gordon Moore im Jahre 1968 formulierte „Gesetz“ besagt, dass sich die Rechenleistung (gemessen in Anzahl Transistoren pro Rechenchip) alle 18 bis 26 Monate verdoppelt.

Die Dynamik dieser Entwicklung ist augenfällig. Immer kleiner und zahlreicher werden die elektronischen Systeme, welche in die Welt- und Arbeitswelt Eingang finden. Erstaunlich ist aber auch, wie beinahe selbstverständlich dieser Fortschritt akzeptiert wird. Jedenfalls löst die neue Handy-Generation kaum eine ethische Debatte aus, die mit jener der Stammzellen- oder Gentech-Problematik vergleichbar wäre. Dies, obwohl die Informationstechnologie auch hier eine treibende Kraft ist. Ohne die weltweit Tausende von Sequenzierrobotern hätte die Debatte um das Human Genome Project kein praktisch wirksames Fundament.

Computer-Debatten der 1960er und 1970er

Dem war aber nicht immer so: Visionäre Konzepte wie die künstliche Intelligenz Forschung in den 1950ern und 1960ern sowie das Aufkommen kommerzieller, kleiner Computer (wie PCs) in den 1970er und 1980er Jahren haben durchaus das Interesse wie die Kritik von Philosophen hervorgerufen. Bekannte Exponenten sind etwa die Brüder Hubert L. und Stuart E. Dreyfus, welche sich insbesondere als Kritiker der KI-Forschung hervorgetan haben. Einer der profiliertesten Skeptiker eines umfassenden Computereinsatzes ist Joseph Weizenbaum. Der Entwickler des in den 1960ern geschaffenen Sprachprogramms „Eliza“ stellte fest, dass trotz der Einfachheit des Programms viele Menschen dieses als Gesprächspartner akzeptierten - eine für ihn erschreckende Vorstellung. Er plädierte Ende der 70er Jahre für eine gesunde Portion Skepsis im Hinblick auf die Computerisierung der Gesellschaft . Vor allem in den USA entwickelte sich im Anschluss dieser Debatten eine eigentliche „computer ethics“, welche Eingang in die Ausbildung von Informatikern an den Ingenieurschulen gefunden hat. Deutschsprachige Philosophen haben sich mit einiger Verspätung ebenfalls diesem Thema angenommen, ein bekanntes Beispiel ist Hans Lenk .

Eine anwendungsorientierte philosophische Beurteilung der Informationstechnologie landet bald einmal bei der sogenannten Technikfolgenabschätzung (siehe Stichwort). Es geht also darum, den zu erwartenden Einfluss einer Technologie abzuschätzen und diese Folgen einer Beurteilung zu unterziehen. Ein solches Unterfangen ist bei der Informationstechnologie besonders schwierig, da sich das Feld der Technologie nur schwer von anderen abgrenzen lässt und die Technologie derart weit verbreitet ist. Als Ansatz können drei verschiedene Bereiche unterschieden werden, auf welche die Informationstechnologie einwirkt: das Individuum, die Gesellschaft und die Umwelt. Nachfolgend soll das Problemfeld weiter aufgeschlüsselt werden. Hier finden sich denn auch diverse Problemfelder, die heute durchaus Eingang in die öffentliche Debatte gefunden haben.

Gesundheit, Gesellschaft, Umwelt

Der einzelne Mensch kann durch die Informationstechnologie sowohl bezüglich Gesundheit wie bezüglich Psyche und Selbstbild beeinflusst werden. Der Gesundheitsaspekt ist seit längerem ein Thema - aktuell ist heute vor allem die Frage, wie die elektromagnetischen Felder von Handys und anderem elektronischen Gerät die Gesundheit der Menschen beeinträchtigen kann. Klassische, aber nicht unwichtige Probleme betreffen etwa die Bildschirmarbeit. Bezüglich der psychischen Auswirkungen betritt man ebenfalls ein weithin diskutiertes Problemfeld: Dieses reicht von der sozialen Vereinzelung als Folge der Internetnutzung bis hin zur Frage, inwiefern Computerspiele der Gewalt förderlich sind. Soziologen untersuchen auch Änderungen der Sprachnutzung als Folge etwa von SMS oder der E-Mail-Kultur.

Das Themenspektrum im Fall gesellschaftlicher Auswirkungen ist ebenfalls weitreichend. Dauerbrenner ist etwa die Frage, inwieweit Computerisierung und Automatisierung Arbeitsplätze vernichtet. Volkswirtschaftlich gesehen scheint ein solcher Effekt nicht nachweisbar zu sein, wobei aber sicherlich eine Transformation der Arbeitswelt weg von der Produktion und hin zur Dienstleistung unterstützt wird. Gerade einfache, repetitive Arbeiten sind leicht für Automatisierung zugänglich und Arbeitsplätze für Hilfskräfte in der Produktion und Logistik fallen weg. Die Digitalisierung der Informationsflüsse in Betrieben und Verwaltungen verschärft das Problem der Überwachung und Kontrolle von Menschen. Der durch die Technologie geförderte einfache wie sorglose Umgang mit Information verschärft zudem Fragen der Sicherheit wie auch Eigentumschutz. Gerade die Kulturindustrie steht hier vor grossen Herausforderungen, um das geistige Eigentum von Kunstschaffenden schützen zu können.

Nicht zu vernachlässigen sind schliesslich die Herausforderungen an die Umwelt, welche aufgrund der raschen Lebenszyklen der Produkte der Informationstechnologie mit grossen Mengen von Abfall konfrontiert ist. Problematisch ist dabei nicht nur der Computerschrott selbst. Durch die Verbreitung der Computer in immer mehr Systemen (ubiquitous computing) steigt der Energieverbrauch, welcher zu einem nicht unwesentlichen Teil durch Batterien und Akkus gedeckt wird - ebenfalls kein unproblematischer Abfall.

Diese Skizze macht deutlich, dass in erster Linie die angewandte Ethik auf die Herausforderung der Informationstechnologie antworten wird - und es auch schon tut. Zentrale philosophische Konzepte, an welchen sich die Informationstechnologie messen lässt, sind die folgenden:

Man erkennt also, den Philosophen werden die mit der Informationstechnologie verbundenen Themen nicht ausgehen. Wichtig ist in diesem Zusammenhang auch, dass bereit in der Ausbildung von Philosophen und Ethikern nebst der wohl unvermeidlichen „Biopolitik“ der Blick auf die rasante Entwicklung der Informationstechnologie nicht verloren geht.


Stichwort: Technikfolgenabschätzung

Technikfolgenabschätzung will gesellschaftliche Auswirkungen neuer Technologien frühzeitig und möglichst umfassend untersuchen. Es lassen sich hier vier Schritte unterscheiden: Technikfolgenabschätzung beginnt mit einer Analyse des Standes der interessierenden Technik. Danach folgt eine Abschätzung von zu erwartenden Folgen und Alternativen. Der dritte mögliche Schritt ist die Beurteilung dieser Folgen und Alternativen sowie viertens die Ableitung von Handlungs- und Gestaltungsmöglichkeiten. Vor allem die Schritte drei und vier werden kontrovers diskutiert: Aufgrund welcher Werte soll beurteilt werden und was passiert, wenn verschiedene Werthaltungen aufeinander prallen? Manche TA-Ansätze beschränken sich deshalb darauf, Szenarien zu formulieren. Konsens herrscht dahingehend, dass vorbereiten von Entscheidungen und nicht entscheiden selbst die Aufgabe von TA ist. Eine wichtige Frage ist, wie Werturteile in Konzepte, Verfahren und Empfehlungen der Technikfolgenabschätzung eingehen (siehe dazu: B. Skorupinski, K. Ott. Technikfolgenabschätzung und Ethik. Hochschulverlag ETH Zürich, 2000).

„Jeder wird die Verantwortung von sich weisen“

Perfekter Überwachungsstaat, digitale Spaltung der Gesellschaft, autonome Maschinen - im Zug der sich entwickelnden Informationsgesellschaft stellen sich schwierige Probleme. Der Informatiker Albert Kündig, der Soziologe Heinz Bonfadelli und der Technikhistoriker David Gugerli diskutieren die Perspektiven der Informationsgesellschaft.

Herr Kündig, in Ihrem Bericht behaupten Sie, die künftige Entwicklung in der Informationstechnologie werde die menschliche Entscheidungsautonomie beeinträchtigen. Können Sie diese These an einem Beispiel erläutern?

Kündig: Meine These stützt sich auf der Beobachtung, dass derzeit namhafte Forschungsanstrengungen im Bereich des sogenannten „autonomous computing“ im Gang sind. Wir werden künftig vermehrt von computerisierten Systemen umgeben sein. Gemeint ist damit nicht der Computer auf dem eigenen Pult, sondern dessen Integration in eine Vielzahl von Systemen. Durchaus denkbar ist gar dessen Integration in den eigenen Körper. So könnten Sensoren künftig Auskunft geben über den eigenen Blutzuckerspiegel, damit die persönliche medizinische Datenbank laufend auf dem neusten Stand gebracht wird und im Notfall selbstständig der Notarzt informiert werden kann. Die Frage nach dem eigenen Wohlbefinden wird damit einem technischen System delegiert und unterliegt nicht mehr der eigenen Verantwortung. Das wirkliche Problem stellt sich bei der Frage nach den Motiven für den Bau solcher Systeme. Ich sehe zwei Motive: Zum einen hat der Mensch seit jeher das Bedürfnis, Automaten zu kreieren. Zum anderen sind die heutigen technischen Systeme derart komplex, dass wir sie nicht mehr effizient steuern können. Deshalb – so das Argument – müsse man Systeme bauen, die sich in wesentlichen Teilen selbst steuern können. Damit gibt der Mensch in einem bisher nicht gekannten Mass Verantwortung an technische Systeme ab.

Bonfadelli: Diese Komplexität vieler technischer Systeme ist in der Tat ein wichtiger Punkt. Die Autonomie technischer Systeme kann ja nicht im Sinn der menschlichen Autonomie verstanden werden, sondern es existieren immer Grenzen und Bedingungen, innerhalb welcher sich die Systeme bewegen können. Hingegen sind vielen Nutzern diese Grenzen gar nicht bekannt. Diese Unkenntnis führt zum Gefühl der Unüberschaubarkeit und damit auch zu einem wachsenden Misstrauen.

Kündig: Nebst der Komplexität ist aber auch die Autonomie der Systeme eine künftige Herausforderung. Gemeint ist damit, dass man Systeme entwickeln und bauen will, die einen gewissen Handlungsspielraum haben. Dabei stellen sich beispielsweise Haftungsprobleme. Nehmen wir als Beispiel die Möglichkeit eines „künstlichen Butlers“, eines elektronischen Systems, das sich umfassend um die Bedürfnisse des Nutzers kümmert. Ein solches System ist nicht vollständig durch die Produzenten definiert, sondern wird durch den Nutzer im Laufe der Zeit parametrisiert, d.h. das System passt sich den Gewohnheiten des Nutzers an. Wer ist nun schuld, wenn etwas mit diesen Systemen schief geht? Es ist anzunehmen, dass jeder Beteiligte die Verantwortung von sich weisen wird.

Gugerli: Ich bin skeptisch, ob dies wirklich derart neuartige Probleme stellen wird. Das Problem der Verantwortungszuschreibung bei Fehlern von komplexen technischen Systemen ist ja heute schon gegeben. Denken Sie etwa an den Flugverkehr. Viele der dort stattfindenden Prozesse sind hochgradig automatisiert und liegen weit ausserhalb der Entscheidungsfreiheit etwa von Passagieren, aber auch von Besatzungsmitgliedern und Bodenpersonal. Man kann mit diesen Systemen nur umgehen, wenn man bereit ist, ihnen zu vertrauen. Sonst muss man sich ihnen nach Möglichkeit entziehen.

Kündig: Doch darum geht es nicht. Nehmen wir als Beispiel die Steuerung von Flugzeugen. In der Zivilluftfahrt sind die Steuerungsmechanismen so angelegt, dass bei Ausfall der Systeme immer noch die Möglichkeit besteht, dass der Pilot manuell das Flugzeug steuern kann. Kampfflugzeuge hingegen sind so konzipiert und werden auch so geflogen, dass dies nicht mehr möglich ist - sie lassen sich überhaupt nur noch mit der Hilfe von Computern fliegen, Würde man derartiges in der Zivilluftfahrt einführen, gäbe es mit Sicherheit Proteste.

Um derartige Entwicklungen einschätzen zu können, wird ja oft auf historische Parallelen verwiesen. Lassen sich solche finden, wenn es um die Abtretung menschlicher Verantwortung an technische Systeme geht?

Gugerli: Das Thema des Verlustes menschlicher Kontrolle über technische Systeme hat sicherlich bereits eine gewisse Geschichte, denkt man etwa an den Essautomaten im berühmten Film „Modern Times“ von Charles Chaplin. In der jüngeren Vergangenheit ist diese Thematik bei der Debatte um die Kernenergie stark im Vordergrund gestanden. Kraftwerke sind in einigen Fällen tatsächlich völlig ausser Kontrolle geraten; diesen Kontrollverlust hat man in der albtraumverdächtigen Denkfigur des Atomstaates kompensiert – ein Szenarium, in welchem nur noch ein autoritäres, technokratisches politisches Gebilde überhaupt in der Lage sei, die Gefahren der Atomtechnologie zu bannen – die Anforderungen der Technologie führte in den Vorstellungen vieler zum eigenen Freiheitsverlust.

Ein Kernelement in der Werbung für die neuen Technologien - denkt man etwa an die Telekommunikation - ist aber der Verweis auf die gestiegene Freiheit des Menschen. Wie verträgt sich das mit der geschilderten Abgabe von Verantwortung?

Bonfadelli: Die Freiheit, immer alles erreichen zu können ist natürlich zweischneidig – sie bedeutet auch, immer erreichbar zu sein. Sie ermöglicht Kontrolle - etwa wenn Eltern ihren Kindern oder Männer ihren Frauen ein Mobiltelefon schenken. Man erwartet damit auch, dass die betreffenden Personen quasi immer erreichbar und damit kontrollierbar sind.

Im Gegensatz zur Atomdebatte ist bei der Informationstechnologie ja auch die Angst, nicht über die Technologie verfügen zu können, prominent vertreten - man denke an das Stichwort „digital divide“. Wie ist diese Angst einzuschätzen?

Bonfadelli: Das Stichwort „digital divide“ ist im Rahmen der sozial ungleichen Verbreitung des Internets aufgekommen. Um den Gap zwischen Personen mit bzw. ohne Zugang zum Internet beurteilen zu können, muss man zuerst untersuchen, was einem das Internet im konkreten Fall bringt. Wenn das Internet wenig politische Inhalte hat, und von den Nutzern primär als Unterhaltungsmedium gebraucht wird, wird damit das Problem der mangelnden politischen Informiertheit nicht gelöst und ein „digital divide“ hat in dieser Hinsicht keine politische Relevanz. Auswirkungen kann ein „digital divide“ aber auch in anderer Hinsicht haben: So ist eine vermehrte Abhängigkeit von der Technologie feststellbar, welche in der entwickelten Welt ja auch Kosten verursacht.

Kündig: Man sollte diesen Aspekt in der Tat nicht vernachlässigen. Die Abhängigkeit der sogenannten Ersten Welt von der Informationstechnologie könnte dazu führen, dass die Menschen hier ohne „digitale Krücken“ gar nicht mehr richtig leben können. Bei grösserem Zivilisationsbrüchen wären dann die „einfacheren Gesellschaften“ uns in ihrer Überlebenstauglichkeit überlegen.

Beschäftigen wir uns noch ein bisschen mit dem Problem der Abhängigkeit: Diese wird ja offenkundig, wenn es um Informationen vitaler Art, wie Gesundheitsinformationen oder Kontoinformationen, geht. Der Vormarsch der Informationstechnologie kann dazu führen, dass man persönlich immer mehr nur solche Mittel benutzen muss, will man auf diese Information zugreifen. Wie beurteilen Sie dieses Problem?

Kündig: Das Phänomen, dass man zur Aufnahme gewissen Kulturtechniken gezwungen wird, ist nicht neu. Ich erinnere mich noch an die Kurse in Fahrplan lesen, die ich in der Schule besuchen musste.

Bonfadelli: Der Umgang mit der Informationstechnologie mag zur Kulturtechnik gehören, darf sich aber nicht auf die rein technischen Aspekte beschränken. Gerade das Überangebot an Information verlangt nach einer Ausbildung, gute von schlechten Info-Quellen unterscheiden zu können. Das Problem besteht darin, dass der traditionelle Medienkonsum sich auf glaubwürdige Marken – Zeitungstitel – abstützen kann, welche eine Beurteilung der aufgenommenen Information besser erlauben als etwa die Konsultation des Internets. Mir fällt dieses Problem beispielsweise bei unseren Studenten auf, welche oft nur ungenügend in der Lage sind, ein gutes wissenschaftliches Paper von irgendeinem Paper, das sie im Internet finden, unterscheiden zu können.

Denkbar ist damit ein gewisser Einfluss auf das wissenschaftliche Arbeiten - etwa im Sinn, dass nunmehr „datenbankfähiges Wissen“ untersucht wird...

Gugerli: Sicherlich ist ein solcher Einfluss möglich, wenngleich dies kein neues Phänomen ist. Wissenschaftler haben sich immer schon auf jene Forschungsbereiche gestürzt, wo das zu ermittelnde Wissen vergleichsweise einfach zugänglich war, wo man es auf Karteikarten bannen, mit Instrumenten messen und mit Grafiken übersichtlich machen konnte. Insbesondere für Geisteswissenschaftler ergeben sich nun aber neue, interessante Arbeitsmöglichkeiten auch mit Texten. So kann man gleichsam statistisch arbeiten, systematisch nach gewissen Begriffen oder Begriffsfolgen in Texten suchen und dergleichen. In einem gewissen Sinn ändert sich damit auch das „Intuitionsumfeld“ für neue Gedanken und Fragestellungen. Neue Ideen entstehen auch beim Durchstöbern von Datenbanken, nicht mehr nur beim Lesen von und Nachdenken über Texte.

Bonfadelli: Dazu muss aber bemerkt werden, dass es nicht unbedingt stimmt, dass die neuen Technologien automatisch mehr Information zur Verfügung stellen. Vielmehr ist in gewissen Bereichen eine gegenläufige Tendenz sichtbar, wonach für gewisse, wichtige Informationen immer mehr bezahlt werden muss, denken Sie etwa an Wirtschaftsinformationen oder auch an Pay-TV im Bereich Sport. Und umgekehrt besteht die Gefahr, dass die Gratisinformationen – Stichwort Pendlerzeitung 20Minuten – immer mehr an Qualität einbüssen.

Kündig: Auch die Privatisierung gewisser Bereiche führt zur Entwicklung, dass Informationen nicht mehr so leicht zugänglich sind, da sie zum Geschäftsgeheimnis geworden sind. Ein Beispiel ist die Telekommunikation: Zur Zeit der PTT konnte jeder Bürger Einsicht haben in die Verteilung der Sendestationen, der Stärke der Senden etc. Heute ist das unmöglich, man bekäme von der Swisscom keine Karte aller Handy-Antennen mit den Sendeleistungen mehr. Forscher erhalten auch keine Daten mehr über Dauer von Gesprächen oder die geographische Verteilung der Telefongespräche, das gilt alles als Geschäftsgeheimnis. Nehmen wir an, die Autobahnen würden privatisiert. Dann, so denke ich, dürfte es auch schwieriger werden, Informationen über unfallträchtige Strecken zu erhalten.

Die Frage nach der Unterdrückung und Kontrolle von Information ist ja gerade im Kontext der Terrorismusbekämpfung ein aktuelles Problem…

Kündig: Man hatte bereits zu den Frühzeiten des Informationszeitalters Angst vor der Verknüpfung von Datenbanken. Diese Angst war bis jetzt unbegründet, weil bereits schon technische Inkompatibilitäten dazu führen, dass eine solche Verknüpfung nicht möglich ist. Nun wird aber am sogenannten „semantic web“ gearbeitet, also an Datenbanken, wo die semantische Bedeutung der Daten durch technische Systeme erkannt werden kann. Damit wird die Verknüpfung von Datenbanken mit überlappender Information möglich und die Möglichkeiten der Überwachung nehmen rasant zu.

Bonfadelli: Dazu kommt das Problem, dass es immer schwieriger werden wird, eine solche Überwachung überhaupt feststellen zu können. Denken Sie an die aktuellen Entwicklungen in den USA. Einreise ist nur noch möglich mit maschinenlesbaren Pässen. Oder denken Sie an die Kundenkarten der Grossverteiler…

Kündig: Die Situation ist gar noch gravierender. Nehmen wir wieder ein Beispiel aus der Telekommunikation. Früher wurde die technische Infrastruktur vom Betreiber, also von der PTT, von A bis Z geführt. Heute werden Wartungsfunktionen, gar ganze Bereich der Infrastruktur, ausgelagert. Zentrale Server, über welche der Telefonverkehr in der Schweiz verläuft, werden beispielsweise von internationalen Konzernen konzipiert und installiert. Hier können Daten über alle geführten Verbindungen abgelegt werden. Wer sagt uns, dass dadurch nicht eine Überwachung möglich ist? Wer gibt uns die Sicherheit, dass nicht die National Security Agency der USA Daten aus den Anlagen zugespielt erhält? Denken Sie daran, dass künftig bei der Einreise in die USA die Kreditkartennummer angegeben werden muss. Damit hat die NSA die Möglichkeit, künftig herauszufinden, wo sie was wann kaufen.

Gugerli: Solche Entwicklungen sind ja konsistent mit den schlimmsten Befürchtungen betreffend Überwachungsstaat. Da werde ich ja langsam zum Pessimisten…

Was kann man denn gegen eine solche Form von Überwachung tun?

Gugerli: Eine Möglichkeit ist sicher das Vermeiden elektronischer Spuren. Konkret heisst das, die Mailadresse nicht weiter zu geben, das Handy ausschalten, auf Kundenkarten verzichten, Transaktionen mit Kreditkarten vermeiden, nicht in die USA reisen… also sich den Kommunikationsweisen und Verkehrsformen unserer Zeit entziehen. Oder man setzt sich politisch für eine Kontrolle der Überwachungsmöglichkeit ein, um sich so die Partizipation zu bewahren und den Missbrauch zu sanktionieren.

Bonfadelli: In der Schweiz müsste man unbedingt wenigstens den gesetzlich festgelegten Datenschutz verstärken, indem man beispielsweise verstärkt offen legt, welche Datenbanken mit welchen Einträgen überhaupt existieren.

Kündig: Es ist aber auch eine politische Gegenbewegung sichtbar. Die Association für Computing Machinery hat offiziell Protest eingelegt gegen die ausufernde Überwachung in den USA. Hauptargument war, dass dieses System Fehler nicht vermeiden kann. Damit könnten Unschuldige in die Mühlen geraten, die sich kaum mehr gegen solche Zuschreibungen wehren können. Jetzt schon sind Fälle bekannt, wo man in Kalifornien aufgrund eines Fehlers bei der Übermittlung einer Autonummer eines Gesuchten Jagd auf den falschen gemacht hat, dieser wurde nervös, versuchte zu fliehen. Die Polizei schoss in die Reifen, es kam zu einem Unfall und der Unschuldige starb.


Heinz Bonfadelli ist Professor für Publizistikwissenschaft an der Universität Zürich. Sein Forschungsinteresse gilt unter anderem der Rolle der Medien im Informationszeitalter und dem „digital divide“.

David Gugerli ist Professor für Technikgeschichte an der ETH Zürich. Er arbeitet unter anderem an der Geschichte der Telekommunikation in der Schweiz und dem technisierten Körper.

Albert Kündig ist emeritierter Professor für technische Informatik und Kommunikationsnetze an der ETH Zürich und ist heute Mitglied des Leitungsausschusses des Rates für Technikfolgenabschätzung in der Schweiz. Er publiziert über gesellschaftlichen Auswirkungen der Informationstechnologie.


© 2024 go-leon* websolutions gmbh drucken schliessen