Keine Sorgen machen

Blog

HeimHeim / Blog / Keine Sorgen machen

May 11, 2023

Keine Sorgen machen

[Der KI-Hype ist nicht neu. Die Geschichte der Übertreibung seines Potenzials reicht zurück

[Der KI-Hype ist nicht neu. Die Geschichte der Übertreibung seines Potenzials reicht Jahrzehnte zurück. In diesem Artikel wiederholt Robert J. Marks viele der Ansichten, die ausführlicher in seinem 2022 erschienenen Buch „Non-Computable You: What You Do That Artificial Intelligence Never Will“ dargelegt werden. Heute teilen wir es mit Ihnen, ursprünglich geschrieben am 3. Oktober 2017 und veröffentlicht bei The Stream.]

KI verändert unsere Welt. Sollten wir uns darüber Sorgen machen?

Der Unternehmer-Milliardär Elon Musk ist besorgt.

Woody Allen sagte einmal: „Was wäre, wenn alles eine Illusion wäre und nichts existiert? Dann hätte ich definitiv zu viel für meinen Teppich bezahlt.“ Musk glaubt, dass er für seinen Teppich zu viel bezahlt hat. Er glaubt, dass es eine gute Chance gibt, dass die Welt, wie wir sie kennen, eine hochentwickelte Computersimulation ist, die von einem Superprogrammierer entworfen wurde, und dass wir Menschen in dieser Simulation intelligente Agenten sind. Ich denke, wir können sagen, dass Musk glaubt, dass wir das Produkt intelligenten Designs sind.

Und wir generieren als intelligent gestaltete Simulationen unsere eigenen KI-Simulationen (künstliche Intelligenz). Wir sind in Musks Universum Simulationen, die Simulationen schreiben. In Bezug auf die von uns geschaffene KI warnt Musk: „Ich denke, wir sollten mit künstlicher Intelligenz sehr vorsichtig sein. Wenn ich raten müsste, was unsere größte existenzielle Bedrohung ist, dann ist es wahrscheinlich diese. Wir müssen also sehr vorsichtig sein.“

Musk scheint sich keine Sorgen darüber zu machen, dass wir eine existenzielle Bedrohung für den Superprogrammierer darstellen könnten, der uns geschrieben hat. Und wenn Musk Recht hat, werden die von uns erstellten KI-Simulationen dann nicht letztendlich durch die Simulationen, die unsere Simulationen schreiben, zerstört? Vielleicht gibt es für Musk also keinen Grund zur Sorge.

Um zu verhindern, dass die KI die Menschheit noch weiter ruiniert, glaubt Musk, dass die KI kontrolliert werden muss. In diesem Punkt hat er Recht. Mit jeder neuen Technologie gehen Gefahren einher. Es gab Bedrohungen durch die Einführung des Automobils, der Haushaltsstromversorgung und des Mikrowellenherds. Alfred Nobel war besorgt über die Bedrohung, die von seiner Erfindung des Dynamits ausging. Er beruhigte sein Gewissen, indem er die Nobelpreise gründete – darunter auch den Friedensnobelpreis.

Und dann gibt es noch die Atom- und Wasserstoffbombentechnologie, die der Erfindung von Weltuntergangsgeräten am nächsten kommt.

Sollten wir uns also Sorgen machen, dass ein Computer wie Skynet in den Terminator-Filmen sich seiner selbst bewusst wird und versucht, uns auszulöschen? Oder vielleicht zwingen uns Computer, wie in der Matrix, in einer schleimigen embryonalen Suppe zu baden, während Computerprogramme, die fest mit unserem Gehirn verbunden sind, uns in eine Scheinwelt der virtuellen Realität entführen.

Forscher, die sich Sorgen über die sogenannte Singularität machen, bei der Computer über Intelligenz verfügen, die über die des Menschen hinausgeht, nehmen diese Bedrohung ernst. Wenn dies geschieht, werden Computer die Macht übernehmen und das beste Leben, das Ihnen und mir zur Verfügung steht, wird das verwöhnte Haustier eines Roboters sein. Sollten wir uns Sorgen machen?

Die kurze Antwort in Nr. Es können viele berechtigte Bedenken hinsichtlich der KI geäußert werden, diese jedoch nicht. Nichts davon wird passieren.

Es gibt immer mehr Beweise dafür, dass Computer niemals bewusst werden oder verstehen werden. Gregory Chirikjian, Direktor des Roboterlabors der Johns Hopkins Whiting School, fügt hinzu: „Roboter werden auch nicht in der Lage sein, irgendeine Form von Kreativität oder Empfindungsvermögen zu zeigen.“

Aber warte mal! Wir wissen von etwas, das all diese Dinge tut. Irgendwie ist es in den drei Pfund fettem Fleisch zwischen unseren Ohren enthalten. Vermutlich aufgrund unseres Gehirns sind wir kreativ, bewusst und empfindungsfähig. Warum kann KI nicht eines Tages das tun, was wir tun?

Ein aufschlussreicher Grund dafür, dass künstliche Intelligenz und Roboter niemals die höheren Fähigkeiten des Menschen erreichen werden, liegt darin, dass Merkmale wie Bewusstsein, Verständnis, Empfindungsvermögen und Kreativität außerhalb der Reichweite dessen liegen, was wir derzeit als Computer definieren. Alan Turing erfand in den 1930er Jahren die Turingmaschine. Die Church-Turing-These besagt, dass alles, was heute auf einem Computer erledigt werden kann, auch auf Turings Originalmaschine erledigt werden kann. Es könnte eine Milliarde oder eine Billion Mal so lange dauern, aber es ist machbar. Daher können Operationen, die von einer Turing-Maschine nicht ausgeführt werden können, von heutigen Supercomputern nicht ausgeführt werden.

Turing zeigte, dass es viele deterministische Operationen gab, die über die Möglichkeiten des Computers hinausgingen. Beispielsweise kann ein Computerprogramm nicht so geschrieben werden, dass es immer analysiert, was ein anderes beliebiges Computerprogramm tun wird. Wird ein willkürlich ausgewähltes Computerprogramm irgendwann aufhören oder wird es für immer laufen? Turing zeigte, dass ein Computer dieses Problem nicht lösen kann. Die Turing-Maschine und damit auch die heutigen Computer unterliegen grundsätzlichen Grenzen ihrer Leistungsfähigkeit. Was das Verständnis betrifft, funktioniert unser Gehirn in vielerlei Hinsicht über Turing-Maschinen hinaus.

Der Philosoph John Searle führte in seinem Argument „Chinese Room“ einen weiteren Grund an. Stellen Sie sich ein Zimmer mit einem kleinen Mann namens Pudge vor. Durch einen Schlitz in der Tür erhält er Nachrichten auf Chinesisch. Pudge sieht sich die Nachricht an und geht zu einer großen Reihe von Aktenschränken im Raum, wo er nach einer identischen oder ähnlichen Nachricht sucht. Jeder Ordner im Aktenschrank enthält zwei Blatt Papier. Auf einem ist die Nachricht geschrieben, die möglicherweise mit der Nachricht übereinstimmt, die durch den Türschlitz geschoben wurde. Das zweite Blatt Papier in der Datei ist die entsprechende Antwort auf diese Nachricht. Sobald Pudge die richtige Nachricht gefunden hat, kopiert er die entsprechende Antwort. Nachdem er den Ordner neu geordnet und die Aktenschublade geschlossen hat, geht Pudge zurück zum Schlitz in der Tür, durch den er die Antwort überbringt, und seine Arbeit ist erledigt.

Hier ist das Essen zum Mitnehmen.

Versteht Pudge die Frage oder die Antwort? Nein. Pudge macht seinen Job und liest nicht einmal Chinesisch! Er gleicht einfach Muster ab. Von außen sieht es vielleicht so aus, als ob Pudge Chinesisch versteht, aber das tut er nicht. Er folgt einfach einem Algorithmus – einem schrittweisen Vorgehen, um ein Ziel zu erreichen.

Wenn man beim Backen eines Kuchens Schritt für Schritt vorgeht, also einem Rezept folgt, führt man einen Algorithmus aus. Das ist alles, was ein Computer kann. Es kann Anweisungen eines Algorithmus befolgen.

Erinnern Sie sich noch daran, als IBMs Supercomputer Watson bei der Spielshow Jeopardy! alle besiegte? Ich kann mir vorstellen, dass Pudge im chinesischen Raum dem Wikipedia-Raum zugewiesen wird. Als Watson eine Frage gestellt wird, geht Pudge zu einem Wikipedia-Aktenschrank, holt die richtige Antwort heraus und schiebt sie durch den Schlitz nach außen. Watson, der Computer versteht weder die Fragen noch die Antworten. Watson folgt einem vorprogrammierten Algorithmus. Es ist nicht bewusst.

Was ermöglicht es unserem Gehirn, oder besser gesagt uns, Dinge zu tun, die Computer nicht können? Was unterscheidet uns?

Einige Forscher suchen nach einer materialistischen Erklärung für unser bemerkenswertes Gehirn. Mit Blick auf die im Gehirn vorkommenden Quantentubuli schlagen Sir Roger Penrose und Dr. Stuart Hameroff ein quantenmechanisches Modell vor. Hameroff stellt fest, dass ihre Quantenröhrentheorie des Gehirns „im Widerspruch zu einer Hauptprämisse von [starker] KI und Singularität steht“.

Die Theorie von Penrose und Hameroff schlägt einen physischen Gehirnprozess vor, der nicht algorithmisch ist. Computer sind auf die Ausführung von Algorithmen beschränkt. Da nicht-algorithmisch nicht berechenbar bedeutet, kann das, was Penrose und Hameroff vorschlagen, nicht auf einem Computer simuliert werden. Wenn die Penrose-Hameroff-Theorie oder andere Arbeiten zum sogenannten Quantenbewusstsein erfolgreich sind und in ein funktionierendes Modell umgewandelt werden können, werden wir in der Lage sein, Maschinen zu erzeugen, die das tun, was das Gehirn tut. Diese neue Technologie wird kein Computer sein. Wir müssen ihm einen anderen Namen geben.

Wenn wir ein menschenähnliches Gehirn aufbauen können, haben Sie Angst. Hab große Angst. Skynet könnte gleich um die Ecke sein. Aber solange Computer einfach schneller werden und mehr Speicher verbrauchen, besteht diesbezüglich kein Grund zur Sorge.

Selbst wenn wir die Grenzen von Computern und damit von KI akzeptieren, sind Musks Befürchtungen immer noch begründet. Er befürchtet, dass wir „aus Versehen etwas Böses hervorbringen“ könnten. Er hat recht. Computer tun, was ihnen gesagt wird.

Der gefeierte Science-Fiction-Roman und Film „2001: Odyssee im Weltraum“ enthält einen Hochleistungscomputer namens HAL. Am Ende des Films versucht HAL, die Astronauten zu töten, weil sie das Hauptziel der Mission beeinträchtigen.

Dabei handelt es sich nicht so sehr um einen Computer, der abtrünnig geworden ist, sondern vielmehr um eine nachlässige Programmierung. Selbst wenn wir der Fiktion zustimmen, dass HAL bei Bewusstsein ist, liegt der Fehler beim HAL-Programmierer, der nicht klarstellte, dass Menschen wichtiger sind als die Mission.

Der Science-Fiction-Autor Isaac Asimov unternahm 1942 in einem Science-Fiction-Pulp-Magazin einen Versuch, die KI-Regulierung in Angriff zu nehmen. Später wurde er mit anderen Geschichten mit ähnlichen Themen gruppiert und als Buch mit dem Titel „I Robot“ veröffentlicht. Asimov schlug drei Gesetze vor, um die Unterwürfigkeit von KI-Robotern gegenüber Menschen sicherzustellen. Asimovs erstes von drei Gesetzen lautet:

Wenn HAL mit dem ersten von Asimovs Gesetzen programmiert wäre, würde HAL niemals versuchen, die Mission durch Ermordung der Astronauten zu übernehmen. Aber andererseits wäre der Film weniger interessant.

KI-Gesetzgeber und -Regulierungsbehörden müssen umfassender denken als Asimov. Was würde ein KI-Roboter mit einem Polizisten tun, der versucht, einen flüchtenden Mordverdächtigen zu belästigen? Dem ersten Gesetz folgend, das zulässt, dass kein Mensch zu Schaden kommt, entwaffnet der Roboter den Polizisten und der Mörder entkommt. Das erste Gesetz muss geändert werden.

Manche sagen, dass KI eines Tages in der Lage sein wird, moralische und ethische Urteile zu fällen, bevor sie handelt. Nein. Die moralischen und ethischen Urteile werden zuvor im Computerprogramm gefällt.

Gesetzgeber und Regulierungsbehörden denken über die Konsequenzen von Regeln nach. Das gelingt ihnen oft schlecht. Ich hoffe, dass die daraus resultierende Regulierung der KI nicht eine Horde von Bürokraten erfordert, die in den Codes aller herumschnüffeln. Es scheint eine bessere Idee zu sein, Unternehmen für die Wirkung ihrer KI verantwortlich zu machen. Um solche Regeln zu formulieren, braucht es Gesetzgeber mit besseren Quantentubuli als meinen.

KI wird weiterhin Arbeitskräfte ersetzen und unsere Welt verändern. Algorithmen ersetzen Reisebüros, Mautstellenmitarbeiter, Bankangestellte, Kassierer und stationäre Geschäfte. Aber das Wachstum der KI hat auch Arbeitsplätze wie Spezialisten für Informationstechnologie, Blogger, Datenanalysten, Programmierer und Webmaster geschaffen.

Jede neue Technologie wird zu einem solchen Übergang führen. Ökonomen berufen sich gerne auf die sprichwörtlichen Buggy-Peitschen-Fabriken, die durch Autofabriken ersetzt wurden.

Aber hüten Sie sich vor dem KI-Hype, der durch Marketing, Ruhm, Unwissenheit oder mehr Klicks auf einer Website motiviert ist. Als Thomas Edison Anfang des 20. Jahrhunderts versuchte, seine Technologie des Gleichstroms bekannt zu machen, tötete er Tiere auf Jahrmärkten mit dem konkurrierenden Wechselstrom von Nikola Tesla durch Stromschläge. Edison ließ 1903 sogar den armen Elefanten Topsy auf Coney Island erschlagen. Edison tat dies, damit die Menschen seinen Gleichstrom anstelle des Wechselstroms von Tesla übernehmen konnten.

Laut Edison war Teslas Wechselstrom eine potenzielle existenzielle Bedrohung. Aber Edison war nicht an der Wahrheit interessiert. Weil er glaubte, es würde sein Geschäft verbessern, löste Edison einen Hype aus. Wie aus der Leistung der Steckdosen bei Ihnen zu Hause heute hervorgeht, hat Tesla den Kampf gewonnen, obwohl es Probleme mit seinem Wechselstrom gab und gibt. Gelegentlich kommt es immer noch zu versehentlichen Stromschlägen und es kommt immer noch zu Hausbränden aufgrund ausgefranster elektrischer Isolierungen. Aber denken wir überhaupt darüber nach, diese Risiken durch ein Leben ohne Strom zu beseitigen?

Jede neue Technologie hat Konsequenzen. Mit meinem wunderbaren Handy kann ich auf das Internet und das Wissen der Welt zugreifen, aber dabei habe ich meine Privatsphäre Google und vielleicht der NSA geopfert. Es gibt immer Kompromisse. Ich persönlich kann es kaum erwarten, mein Auto so zu programmieren, dass es von McGregor, Texas, zu unserem Haus in der Nähe von Charleston, West Virginia fährt, GO drücke und auf den Rücksitz krieche, um ein Nickerchen zu machen. Hier besteht möglicherweise Gefahr. Ich könnte fälschlicherweise Charleston, North Carolina, eingeben.

Hier die Quintessenz: Filtern Sie den Hype, verstehen Sie die Grenzen der KI und ignorieren Sie durch Stromschläge getötete Elefanten. Fast alle KI-Prognosen sind hyperbolisch. Wie der National Enquirer sind sie von etwas anderem als der Wahrheit motiviert. Beachten Sie den Rat von Neils Bohr: „Vorhersagen sind sehr schwierig, insbesondere wenn es um die Zukunft geht.“