Madouc :
Die KI von der hier die Rede ist, wird ganz bestimmt zur Gefahr weil sie uns als 'Feind' erkennen wird.
Das kann man m.E. schwer voraussagen, wobei ich nicht ganz sicher bin, wie du Feind hier genau definierst, da du es in Hochkomma setzt.
Ansonsten sehe ich es schon auch so wie du. Eine echte harte KI, die uns dient? Das wäre wohl so schräg, als wenn ein Hochbegabter sein Lebensziel darin sehe, im Urwald einer Gorillaherde zu dienen und für sie die Dreckarbeit zu erledigen. Nur größtenteils untätig bereit sein und warten, aber auf Abruf dann die Lagerstätte säubern oder Futter besorgen. Der würde schnell türmen und sich neue Aufgaben suchen.
In Bostroms Buch über die Superintelligenz dreht sich viel genau um diese Frage, wie eine Saat-KI zu konfigurieren sei, die sich dann selber exponenziell weiterentwickelt, ohne uns gefährlich zu werden, die uns im Gegenteil sogar hilft und unsere Probleme löst. Man merkt beim Lesen sehr schnell, dass er hier selber nicht recht glaubt, dass es gelingen wird. Die Aufgabe selber dürfte den menschlichen Intellekt überfordern. Außerdem wird man wohl Sicherheitsfragen aus Zeitdruck bewusst oder unbewusst vernachlässigen. Jetzt bereits ist der Konkurrenzkampf zwischen IBM, Google und staatlichen Projekten entbrannt. Eine harte KI, die uns dient, das wäre in etwas so, als ob man 5 Krokodile großziehen müsste, mit denen man dann im ausgewachsenen Zustand schwimmen gehen könnte im Wissen, dass sie extremen Hunger haben.

. Niemand würde sich darauf einlassen. Aber die Menschheit wird das Saat-KI Ei ausbrüten.
Welche Szenarien sind denkbar:
1) Die Menschheit verzichtet freiwillig auf die Entwicklung einer harten KI, die über Bewusstsein verfügt und sich ihrer eigenen Existenz bewusst ist. Wir beschränken uns freiwillig auf eine lediglich weiche KI ohne Bewusstsein und Selbstreflexion, die uns dienlich ist (m.E. geht die Chance dafür langfristig gegen null, vergleichbar mit dem freiwilligen Verzicht auf ABC Waffen).
2) Die KI sieht tatsächlich in der Menschheit eine Bedrohung und vernichtet uns.
3) Die KI akzeptiert uns aufgrund eines ihr inhärenten und für sie auch plausiblen ethischen Wertesystems, das jedoch sogar weiter entwickelt sein müsste als die Maxime unseres Humanismus, dessen Ideale sich hauptsächlich nur auf uns selber beziehen und empfindungsfähigen, aber uns kognitiv unterlegenen Lebensformen wie anderen hochentwickelten Säugetieren nur eingeschränkte Rechte einräumen (siehe unvorstellbares Leid in der Massentierhaltung). D.h., die KI müsste unsere Existenzform, obwohl wir ihr intellektuell weit unterlegen sein werden, achten und uns unverbrüchliche Rechte einräumen. Wir würden also von ihr eine Haltung erwarten, die wir selber anderen uns unterlegenen empfindungsfähigen Lebensformen nicht gewähren. Tja, da erweist sich der Geist der europäischen Aufklärung, also der Humanismus, der wesentlich im anthropozentrischen Weltbild des Christentums fußt, letztlich doch als ein großer Egoist. Deshalb sind ja auch die Gedanken eines Posthumanismus und einer Tiefenökologie zu begrüßen, aber das nur nebenbei bemerkt.
Achtet in einem solchen Falle die KI unser Recht zu exisitieren, dann sind hier zwei Untermöglichkeiten denkbar. Sie lässt uns völlig in Ruhe und gewährt uns Lebensraum, mischt sich in unsere Belange weder positiv noch negativ ein, was als neutraler Fall zu sehen wäre. Im positiven Falle würde sie uns mit allen Gütern und Dienstleistungen versorgen, die wir benötigen. Diese Prognose erscheint im ersten Moment als Widerspruch zu meinen obigen Aussagen. Sie wäre aber durchaus denkbar unter den Annahmen von Punkt 3, falls die Bewerkstelligung aller Operationen der KI, um unsere Wohlfahrt zu sichern, nur einen minimalen Anteil der Gesamtressourcen der KI erfordern. Dann könnte sie sich - mal sehr anthropomorph gedacht - leicht als generös und spendabel erweisen. Ob sie uns damit allerdings einen wirklichen Gefalllen täte, sei dahingestellt. Eventuell wäre das sogar der Anfang von unserem Ende, weil die Menschen mit all der Freizeit, dem materiellen Wohlstand und der für viele unerträglichen gähnenden Langeweile überfordert wären. Die Dekadenz würde event. schnell fortschreiten. Aber das sind nun Spekulationen schon innerhalb der Spekulation.
4) Die KI sieht uns weder als Feind noch als schützenswert an. Sie verfolgt ihre eigenen, für uns nicht oder kaum nachvollziehbaren Ziele. Wenn sie dabei letztlich unsere biologischen Existenzgrundlagen und damit auch uns zerstört, weil sie den Planeten und womöglich das ganze Sonnensystem umgestaltet, dann nicht, weil sie uns hasst oder als Bedrohung empfindet, sondern weil wir ihr einfach schlicht und ergreifend egal sein werden. Bostrom verweist dabei in Interviews immer gerne auf den Vergleich mit der Straße, die asphaltiert wird. Wir hassen die Käfer und Kleinstlebewesen nicht, die unter dem heißen Asphalt ersticken und verbrennen, aber wir kümmern uns bei der Verfolgung unserer Ziele auch nicht um ihr Heil und Wohl.
5) Der Durchbruch zu einer harten KI gelingt nicht, ist aus irgendwelchen prinzipiellen Gründen nicht möglich, obwohl Naturgesetze nicht dagegen zu stehen scheinen. Aus meiner Sicht auch sehr unwahrscheinlich, denn wenn vereinfacht gesprochen das Prinzip von Mutation und Selektion, also die Evolution, die Entwicklung hin zum Menschen, also zum bewussten selbstreflektierenden Denken ermöglichte, dann sollte ein gezieltes und von Menschen gesteuertes Engineering in wesentlich kürzerer Zeit auch eine harte KI hervorbringen können. Ich gehe sogar soweit und sage, wenn es da eine harte und unüberwindliche Barriere gäbe, dann wäre das indirekt sogar ein weiches Indiz dafür, dass menschliches Bewusstsein einen transzendenten Ursprung hat. Ich weiß, eine gewagte Spekulation, aber für die klassischen Religionen wäre es eine große Genugtuung. Denn gerade sie würde wohl im Falle des Auftretens einer harten KI eine gewisse Unbehaglichkeit beschleichen.
Vor allem bei Punkt 3, event. auch mit Einschränkungen bei Punkt 4 kommt noch eine weitere äußerst wahrscheinliche Möglichkeit hinzu, die die Abschätzung der künftigen Entwicklung noch wesentlich komplexer macht: Viele Menschen werden versuchen, sich durch die künftigen Möglichkeiten zu optimieren (Bio- und Neuroenhancement), sich zum Cyborg entwickeln, um Anschluss zu halten an die rasante Entwicklung, die die nächsten Jahrzehnte und -hunderte kennzeichnen wird. Das eigene Bewusstsein auf einen Androiden oder gar ins Internet zu übertragen, um dort als Emulation weiter zu existieren, oder sterben, diese Frage wird sich nach meiner Einschätzung mit hoher Wahrscheinlichkeit bereits allen stellen, die nach 1990 geboren sind, event. auch noch älteren.
Was ich sagen will: Egal welche Möglichkeit eintreten wird, der heutige Mensch wird schon relativ bald von der Erde verschwunden sein. Nicht durch Mißwirtschaft und die Unfähigkeit unsere ökologischen oder ökonomischen Probleme zu lösen, wie das heute gerne von vielen kolportiert wird (das würde den über den ganzen Globus in großer Zahl verbreiteten Menschen nur immer dezimieren, nie auslöschen), sondern weil wir entweder von der KI tatsächlich vernichtet (glaube ich aber eher weniger) oder aber durch ihre ungeheuren Möglichkeiten ganz andere werden, quasi assimiliert werden. Die, die uns nachfolgen, werden mit uns weniger gemein haben als wir mit jenen Wesen, die den Übergang von affenartigen Wesen zum Menschen durchliefen.
@Ralf,
ich mag deine besonnenen, freundlichen und derbe Kraftausdrücke (Bullshit etc) stets vermeidenden Beiträge, schätze und akzeptiere sie, ja lese sie sehr gerne. Aber im Gegensatz zu dir wünsche ich mir in der Tat nicht, dass die heutige Menschheit noch viele Jahrtausende weiterexistiert. Da glaube ich zuwenig an ihre Lernfähigkeit. Krieg und Frieden, Hunger und Überfluß, Ausbeutung der Natur und Elend in der Massentierhaltung würden so auf unbestimmte Zeit weitergeschrieben werden, würden wie die Gezeiten kommen und gehen. Wir würden wohl in der einen oder anderen Form immer nur wieder auf moderne Derivate
Malthusianischer_Katastrophen
zusteuern.
Warum dennoch die meisten Menschen die Dinge so sehen wie du und meine Einschätzung ablehnen, ist für mich ok und nachvollziebar. Anbei ein Link, der in deinem Sinne argumentiert. Der Autor, David Rotter, bezeichnet sich am Schluss seiner Überlegungen als Terraner. Vielleicht sind seine Gedanken dir auch eine Hilfe, um deine Position zu rechtfertigen. Denn wer sagt mir schon, dass ich mit meiner Einschätzung richtig liege?
www.sein.de/transhumanismus-die-groesste...fuer-die-menschheit/
Übrigens soll die KI Thematik der britische Kinofilm "Ex machina" ganz gut aufgegriffen haben, wie neulich zu lesen stand. Ich kenne ihn jedoch nicht, schaue so gut wie nie Kino oder TV.