Willkommen, Gast
Benutzername: Passwort: Angemeldet bleiben:
  • Seite:
  • 1
  • 2
  • 3

THEMA: "Künstliche Intelligenz", Tranhumanismus und Big Data

"Künstliche Intelligenz", Tranhumanismus und Big Data 10 Mär 2019 15:42 #49559

Dieser Pfad soll Raum geben, neuste Entwicklungen und Anwendungen von sogenannter „Künstlicher Intelligenz“ vorzustellen und deren ethischen und gesellschaftlichen Konsequenzen zu diskutieren.
Die Bezeichnung „Transhumanismus“ steht in der Überschrift, damit auch Entwicklungen oder Utopien Platz haben, die die Weiterentwicklung des Menschen im Blick haben (Einbau von Technik im Menschen (Cyborg), Neuroenhancement, Gentechnik,…
Die Zusammenstellung der beiden Begriffe ist nicht unproblematisch, da das eine eine Technik ist, das andere eine weltanschauliche Richtung. Aber es zeigt so an, dass hier eben oft nicht sauber unterschieden wird, dass alles oft genug ineinander übergeht. Die Überschrift soll das nicht kaschieren, sondern im Gegenteil auf Widersprüchlichkeiten hinweisen (im Sinne von Prostetnik Vogon Jeltz ;) ).
Dazu gehört auch eine weltanschauliche Debatte. Ich habe mich da in der Vergangenheit intensiv an dieser Debatte beteiligt, ja sie mit geschürt. Ich sehe aber, dass man bei unterschiedlichen Paradigmen dann irgendwann im Kreis argumentiert. Ich hoffe, dass diese Grundsatz-Diskussionen nicht alles überdecken, denn die gesellschaftlichen Herausforderungen auch der schwachen KI sind enorm, wir stehen mitten drin in den Umbrüchen.
Big Data habe ich als drittes Thema in der Überschrift, um die gesellschaftliche Dimension dieses Forum-Zweiges zu benennen.
Technik ist in der Regel weder gut noch schlecht, es kommt darauf an, ihre Nutzung sinnvoll zu gestalten. Dazu muss man sich damit auseinander setzen. Und es gehört eine nüchterne Betrachtung, was jetzt möglich ist, was eine realistische Prognose ist, was Utopie und was Weltanschauung.
Ich hoffe, dass dieser Thread dazu beitragen wird.
Ich bitte darum, hier nicht nur Beiträge zu konsumieren und zu kommentieren, sondern auch selber aktuelle Entwicklungen zu posten. Niemand wird das so intensiv machen wie Cyborg es bis letztes Jahr getan hat, der Thread lebt davon, dass möglichst viele hier einen Input geben. Der cyborg-Thread hat gezeigt, dass es zu diesem Themenkomplex einen Bedarf gibt.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2
Folgende Benutzer bedankten sich: Sirius

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

Verwandte Themen

Betreff des ThemasRelevanzDatum des letzten Beitrages
Künstliche Intelligenz12.61Montag, 13 November 2017
Künstliche Intelligenz - was soll das sein?12.33Sonntag, 02 Dezember 2018
What! No Parallel Universe? Cosmic Cold Spot Just Data Artifact6.58Freitag, 26 Mai 2017
amorphe Intelligenz6.05Freitag, 16 Juni 2017
Was versteht man unter dem Begriff "Intelligenz"?5.92Samstag, 18 Februar 2017

"Künstliche Intelligenz", Tranhumanismus und Big Data 10 Mär 2019 16:57 #49562

Als erster konkreter Beitrag hier ein Link zu Bildern von Menschen, die nicht existieren, sondern die von Software generiert wurden,
thispersondoesnotexist.com/
dazu ein Artikel von der taz.
www.taz.de/!5573832/
und noch ein Link, der auch allgemein interessant ist, wenn man sich für KI interessiert:
jaai.de/kuenstliche-intelligenz-generier...cht-existieren-1311/
Was ich kaum gefunden habe, ist, wozu man das braucht. Eine kommerziell mögliche Verwendung scheint es mir, Models zu ersetzen und in der Werbung „natürliche“ Bilder von Menschen zu verwenden.

Hinweis: Da bei mir die Funktion „Link“ z. Z. nicht funktioniert, habe ich die Links als Text hier drin.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

"Künstliche Intelligenz", Tranhumanismus und Big Data 11 Mär 2019 22:42 #49625

Martin O,

wenn du hier Anhänger für dieses Thema finden willst, dann ist es aus meiner Sicht sinnvoll, vor Beginn der Diskussion Klarheit zu schaffen, was man unter den Begriffen verstehet oder verstehen sollte.

Was ist Intelligenz?

Wo findet man Sie?

Gab es erkenntnisfähiges Verhalten zu allen Zeiten?

Entwicklung gab es schon immer, seit die Zeit ihren Anfang nahm. Da am Anfang lediglich Wasserstoff und Helium vorhanden war, konnte man damals schon von intelligentem Verhalten sprechen, wenn sich diese Elemente gemäß den Naturgesetzen verhalten haben?
Oder kam intelligentes Verhalten erst mit der Biologie in die Welt?

Bevor du diese Fragen nicht hinreichend klargestellt hast, wird die Vorstellung von technisch basierter KI nicht klar werden.

Der Begriff Intelligenz ist schwer zu fassen. Dafür eine allgemeingültige Definition zu finden, ist aus meiner Sicht schon schwierig genug.

Nehmen wir an, es gelänge, dann und nur dann kann man versuchen, diese Definition auf den Stand der heute zur Verfügung stehenden Technik zu übertragen.

Einem Roboter ein paar Algorithmen beizubringen und ihn aus Fehlern, die er selber macht lernen zu lassen, ist da gänzlich zu kurz gesprungen. Das ist keine KI, das ist nur raffinierte Programmierkunst.

In dem Zusammenhang ist auch wichtig, zu begreifen, was Leben eigentlich ist und wie es sich am Leben erhält.
Leben muss sich reproduzieren, sich selbst organisieren und im Falle von Warmblütern ein ständiges dissipatives Nichtgleichgewicht aufrechterhalten, sprich sich selbst mit Energie versorgen. Durch Nahrungsaufnahme! Gelingt dem Individuum das nicht, stirbt es nach kurzer Zeit.

Übertragen auf ein KI Wesen gelingt das alles nicht!!!

Insofern ist der Begriff KI ein reißerischer Zeiterscheinungsbegriff, den alle gern verwenden, die sich gern ins rechte Licht setzen, obwohl sie eigentlich gar nicht wissen, wovon sie eigentlich reden.

Vergleichbares gilt i.Ü. Auch für den Begriff Digitalisiereng. Da wissen auch die Wenigsten, was das eigentlich ist, Hauptsache man redet davon, dann ist man ja schon mal Mitglied des Mainstreams.

Thomas
Folgende Benutzer bedankten sich: Philzer, Marvin

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

"Künstliche Intelligenz", Tranhumanismus und Big Data 12 Mär 2019 23:06 #49669

Hallo Thomas,
zwar habe ich im Grunde alles zum Thema im Cyborg-Thread gesagt und möchte aus Zeitgründen mich hier bei euch eher rar machen, aber die Zahl der Aufrufe des alten Threads zeigen doch, dass das Thema interessiert, zumal ich der Überzeugung bin, dass neben den anderen großen Themen wie Klimaerwärmung, Umweltzerstörung und Überbevölkerung etc. die bevorstehenden disruptiven technologischen Veränderungen das 21. Jhd. zu einer Zäsur in der Menschheitsgeschichte führen werden, wie sie ohne Beispiel in der Vergangenheit sein wird.

Von Martin zu verlangen, er möge hier Definitionen liefern, über die sich die Fachwelt nicht mal einig ist, dürfte nicht zielführend sein.
Aber gut, es gibt auch zur Intelligenz einen Wiki-Eintrag, der ganz hilfreich sein kann:

de.wikipedia.org/wiki/Intelligenz

Dort heißt es schon in der Einleitung, der ich mich anschließe:

Da einzelne kognitive Fähigkeiten unterschiedlich stark ausgeprägt sein können und keine Einigkeit besteht, wie diese zu bestimmen und zu unterscheiden sind, gibt es keine allgemeingültige Definition der Intelligenz. Vielmehr schlagen die verschiedenen Intelligenztheorien unterschiedliche Operationalisierungen des alltagssprachlichen Begriffs vor.


Wenn mich heute jemand fragt, wie er schnell und gut sich einen Überblick genau zu den Themen verschaffen kann, die Martin oben gewählt hat, dann empfehle ich folgende Sendungen, die ich event. bereits auch im Cyborg-Thread verlinkt hatte, die es aber bezüglich dieses neuen Threads recht schön auf den Punkt bringen:

Die Sendung von 3SAT "Robo Sapiens" gibt einen guten Überblick über die Aktivitäten rund um den Globus:
www.3sat.de/mediathek/?mode=play&obj=61968

In der SRF Reihe "Sternstunde Philosophie" war Yuval Harari zu Gast mit dem Thema:
Eine Geschichte von morgen
In der Beschreibung zur Sendung heißt es von SRF Kultur:

Nach seinem Bestseller «Eine kurze Geschichte der Menschheit» blickt der scharfsinnige Historiker Yuval Harari in die Zukunft. In seinem neuen Buch «Homo Deus» sagt er, wir stehen kurz vor dem Ende der Menschheit, wie wir sie kannten. Was die neuen Menschen wollen, diskutiert er mit Barbara Bleisch.




Ich lese übrigens gerade sein 3. Buch "21 Lektionen für das 21. Jhd", wo er sich mit der näheren Gegenwart beschäftigt. In seinem 2. Buch "Homo Deus" spekulierte er über die langfristigen Entwicklungen durch transhumanistische Strömungen und KI.

Sehr informativ und gut aufbereitet ist auch die BR Produktion "Was Goethe über Big Data wusset":
www.br.de/br-fernsehen/programmkalender/...rahlung-1338102.html

Ich denke, wer sich diese Sendungen ansieht, der hat den nötigen Input und Überblick, um darauf aufbauend sich weiter zu informieren oder um sich hier an einer Diskussion zu beteiligen.

Manche glauben heute, um Digitalisierung und KI würde zur Zeit ein Hype vorherrschen, der bald schon wieder vorbei sein wird. Nun, ich glaube es wird sein, wie mit allen bisherigen Umwälzungen. Vielleicht wird auch KI kurzfristig von manchen wie mir überschätzt, aber mittel- und langfristig glaube ich unterschätzen wir alle noch in ungeheures Potenzial.

Ein wichtiger Meilenstein war z.B. der 7. Dez. 2017 als das hochprofessionelle Schachprogramm Stockfish 8 von AlphaZero von Google in 100 Partien 28 mal besiegt wurde (die übrigen 72 Partien endeten Remis).
Stockfish 8 hatte Zugang zu Jahrhunderten gesammelter menschlicher Schacherfahrung und auch zu Jahrzehnten Computerschach. Es berechnet 70 Millionen Stellungen pro Sekunde. Es war so mit das Beste, was mit bisherigen konventionellen Algorithmen programmiert wurde.
AlphaZero begann bei null, hatte keinen Zugriff auf Datenbanken, nicht mal einfache Strategien wurden programmiert und es machte nur 80000 Operationen pro Sekunde. Aber: Es war ein künstliches neuronales Netz, das mit Hilfe von DeepLearning Methoden sich autodidaktisch innerhalb von 4 Stunden auf den Stand brachte, um Stochfish 8 auszustechen. Seine Züge und angewandten Strategien wirkten auf Menschen seltsam, aber man musste sie im Nachhinein als höchst kreativ, ja geradezu genial bezeichnen.

Auch ohne harte KI wird gerade das Militär weltweit nicht umhin kommen, auf KI und wohl auch auf lethale autonome Waffensysteme zu setzen. Das Pentagon hat kürzlich erklärt, dass in seiner Planung und Ausrichtung der Streitkräfte nichts mehr an KI vorbeiführen kann, will man nicht gegenüber Russen und Chinesen in den Nachteil geraten. Natürlich vermeidet man es noch, von lethalen autonomen Waffensystemen zu sprechen. Ich möchte aber gar nicht wissen, woran die DARPA in Zusammenarbeit mit Firmen und Unis schon Entwicklungen betreibt bzw. was die Militärs schon jetzt alles im Ärmel hätten, wenn es nötig wäre.
Die Chinesen statten jetzt bereits U-Boote aus, deren Kapitän quasi eine KI ist, wobei der Mensch aber noch deren Entscheidungen absegnen muss.
Man geht davon aus, dass die Chinesen am weitesten sind bei der Entwicklung eines einsatzfähigen Quantencomputers. Schätzungen gehen davon aus, dass diese Technik 10000 bis millionfach schnellere Computer ergeben wird. Das wird die KI Entwicklung in Verbindung mit immer besseren DeepLearning Methoden und immer besseren und größeren künstlichen neuronalen Netzen ungeheuer pushen.
Wie werden sich die Kriege der Zukunft durch den Einsatz von lethalen autonomen Waffensystemen, sprich z.B. Killerdrohnen und Killerrobotern verändern?
Harari gibt in seinem Buch "21 Lektionen für das 21.Jhd" zu denken mit folgden Beispielen:
Am 16.3.1968 wütete eine US-Kompanie in Vietnam und massakrierte 400 Zivilisten des nordvietnamesischen Dorfes My Lai, und zwar ohne jede militärische oder strategische Notwendigkeit, einfach wohl aus Frust, weil ihnen die Nerven durchgingen noch monatelangem Dschungelkrieg, weil Emotionen stärker waren als jede Vernunft. Killerroboter hätten das nicht getan, denn sie hätten nur ihren militärischen Auftrag ausgeführt. Hätte man damals bereits den Menschen out of the loop nehmen können (was in den nächsten Jahrzehnten in vielen Prozessen beim Militär und in der Wirtschaft geschehen wird), hätte sich das Massaker vermeiden lassen.
Anders sieht es jedoch aus, wenn wir an den Juli 1995 denken, als Truppen der bosnischen Serben in der Stadt Srebrenica mehr als 8000 bosnische Muslime töteten. Im Gegensatz zum Massaker in Vietnam war es eine geplante und organisierte Operation zum Zwecke der ethnischen Säuberung. In diesem Falle können wir davon ausgehen, dass Killerroboter noch gründlicher vorgegangen wären. So hat wohl auch in Srebrenica zumindest das eine oder andere muslimische Kind aufgrund von Skrupeln bei dem einen oder anderen Soldaten der bosnischen Serben überlebt. Eine Killermaschine wäre hier gnadenlos gewesen.

Wir steuern auf Umbrüche und Veränderungen zu, die sich kein Mensch vorstellen kann. Ich möchte ja nicht präjudizierend sein, aber im Vergleich zum Thema dieses Threads sind so die meisten anderen hier diskutieren Themen im Forum, so interessant sie aus wissenschaftlicher Sicht sein mögen, einfach nur so wichtig wie wenn in China ein Radl umfällt.

So, diesen Kickoff Post für diesen Thread wollte ich dann doch noch schreiben, nachdem ich doch viel im Cyborg-Thread gemacht hatte.
Ihr könnt ihn verfolgen und diskutieren oder einschlafen lassen. Aber ihr werdet den 3 Themen oben, je nach eurem Alter, nicht entkommen, und eure Kinder und Enkel schon zweimal nicht.

Grüße Cyborg

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Folgende Benutzer bedankten sich: Marvin

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

"Künstliche Intelligenz", Tranhumanismus und Big Data 12 Mär 2019 23:16 #49670

@ Thomas
Was künstliche Intelligenz ist, ist eine (weltanschaulich) umstrittene Frage. Es ist der Begriff, der sich in der Alltagssprache für Maschinen eingebürgert hat, die mit leistungsfähiger Software arbeiten und deren Output Ähnlichkeiten vorweist wie das, was intelligente Wesen machen.
Es ist somit klar, worum es geht. Meinetwegen kann man das eine Definition nennen.
Der Begriff Intelligenz ist dagegen schillernd und nicht klar definiert, im Gegenteil: es gibt eine Inflation dieses Begriffes: emotionale und soziale Intelligenz usw.
Vor allem aber entzieht sich der Begriff einer Definition, weil er oft metaphorisch gebraucht wird
Versteckter Inhalt oder OFF-Topic [ Zum Anzeigen klicken ]
Genauso wie man von intelligenten Plänen spricht und damit eigentlich die Menschen meint, die diese Pläne entworfen haben, so spricht man eben von intelligenten Maschinen. Wobei hier das Phänomen sich einschleicht, dass man den metaphorischen Gebrauch vergisst, weil er allgegenwärtig ist, und es tatsächlich so meint. Als Notbehelf hat man deshalb die Unterscheidung weiche (= metaphorische) KI und harte (= real so gemeinte) KI getroffen. Ich habe bewusst in meinem Eingangspost auf eine Klarheit verzichtet, weil dies eine weltanschauliche Vorgabe beinhaltet hätte. Wenn ich gesagt hätte, es geht hier nur um weiche KI, dann hätten sich Leute wie Cyborg zu Recht ausgegrenzt gefühlt, was ich schade fände, denn man kann sich auch trotz unterschiedlicher Weltanschauungen über Entwicklungen und Trends unterhalten.
Es würde bedeuten, dass man eine bestimmte „Religion“ entweder ausgrenzt oder zur Geschäftsgrundlage der Diskussion macht.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

"Künstliche Intelligenz", Tranhumanismus und Big Data 13 Mär 2019 06:50 #49673

  • wl01
  • wl01s Avatar
  • Offline
  • Platinum Boarder
  • Platinum Boarder
  • Beiträge: 1066
  • Dank erhalten: 116
M.A. wird die Einführung KI kein plötzlicher Schnittpunkt sein, sondern ein schleichender Prozess. Ein bisschen autonomes Fahren da, ein paar Parameter dort. Einführung von KI in den normalen Alltäglichkeiten von Kaffemaschinen, Autos, in der militärischen Logistik, in der Steuerung von U-Booten, oder wie wir im Interview mit Prof Lesch erfahren haben, in der Steuerung von Tokamaks.
Das Hauptproblem bei der KI ist es, dass sie anders reagiert, als wir Menschen reagieren würden. Das macht sie für uns so unheimlich. Sie reagiert rein logisch mit lernendender Konsequenz, die wir nie haben werden.

Beispiel: der Absturz einer Boing 737. Ein Softwarefehler!?
Ich habe da einige interessante Sendungen von Flugzeugunglücken gesehen, die ein bestimmtes Bild auf eine möglichen zukünftigen KI-Entscheidungen werfen.
Ein Flugzeug stürzte ab und in der Blackbox wurde festgestellt, dass die Besatzung verzweifelt versucht hatte das Flugzeug nach oben zu ziehen bzw. zu beschleunigen, jedoch die Elektronik verweigerte dies und führte das Flugzeug konsequent zum Abstürz. Was war geschehen? Das Flugzeug wurde bei einem Flughafen "enteist", jedoch mit einem zu geringen Anteil an Einteisungsflüssigkeit. Für die Vorflügel reichte es, jedoch das Spritzwasser drang auch in die "Stau-Sensoren" (die die Höhe und Geschwindigkeit des Flugzeug messen) und verstopfte diese. Konsequenz, die KI des Flugzeugs nahm an, dass das Flugzeug zu hoch und mit zu hoher Geschwindigkeit unterwegs war und verweigerte den zusätzlichen Schub und das hinaufziehen.
Das heißt die KI kann nur so gut sein, wie sie Informationen bekommt und bei falschen Informationen letal reagieren.

MfG
WL01

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

MfG
WL01

"Künstliche Intelligenz", Tranhumanismus und Big Data 14 Mär 2019 10:47 #49714

Hallo Alle
Zunächst einmal, sobald der Mensch verstanden hat wie ein Naturphänomen funktioniert, hat er mit technischen Maßnahmen die Natur übertroffen.
Kein natürlicher Organismus kann höher, schneller, weiter usw… als der Mensch. So wird das auch bei der Künstlichen Intelligenz sein. Warum soll das anders sein.

Problem ist nur, wir wissen nicht was Intelligenz ist und schon gar nicht wie sie funktioniert. Wie sollen wir etwas nachbauen (oder gar übertreffen) von dem wir bis dato nichts, aber auch rein gar nichts wissen.
Das was wir 'Künstliche Intelligenz' nennen sind einfach nur intelligent geschrieben Programm, that it. Das wurde ja hier schon mehrfach bemerkt.
Hier kann ich nur Thomas zustimmen

Insofern ist der Begriff KI ein reißerischer Zeiterscheinungsbegriff, den alle gern verwenden, die sich gern ins rechte Licht setzen, obwohl sie eigentlich gar nicht wissen, wovon sie eigentlich reden.

Es ist sogar noch besser. Es gibt viele (ich korrigiere mich auf 'alle') Software Entwickler die gerne diesen Ausdruck benutzen, einfach um mehr Geld für ihre Programme zu erhalten. Ich weiß wovon ich rede, ich komme aus der Branche.

Es ist ja schon lustig was aus einem Übersetzungsfehler so gemacht wird. AI mit 'künstliche Intelligenz' zu übersetzt ist genauso, als würde man CIA mit 'Zentrale Intelligenz Agentur' übersetzen (LOL).
Die korrekte Übersetzung für AI ist 'Expertensystem'. Ein System das auf Eingaben (Tastatur, Messsonden, etc.) eine Antwort liefert.

Richtig interessant wird es erst, wenn man herausbekommt wie das bei uns im Hirn funktioniert. Aber, wie gesagt, da ist noch nicht mal ein Silberstreif am Horizont zu sehen. Oder weiß hier einer etwas, das würde mich interessieren.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

"Künstliche Intelligenz", Tranhumanismus und Big Data 14 Mär 2019 13:30 #49725

Was mich schon im Cyborg-Faden immer wieder mal erstaunt hat, ist, dass KI auf keinen Fall die Macht übernehmen kann, so lange sie nicht die menschliche Intelligenz nachgebildet hat. Das ist doch letztlich eine Form des subtilen Anthropozentrismus, der mir logisch so gar nicht einleuchten kann. Ich weiß, dass das mit der Referenz menschlicher Intelligenz sehr gerne auch von Leuten genutzt wird, die DeepLearning-Machines konstruieren, aber die allgemeine Angst besänftigen wollen, oder sich vielleicht jetzt schon in der Pontius Pilatus-Geste üben: Das habe ich nie so gewollt und kann nichts dafür. Das wiederum haben Wissenschaftler schon einmal gerne in der Vergangenheit so gehandhabt: Was die Gesellschaft mit meinen Erkenntnissen anfängt, ist deren Sache.
Es gibt doch allen Grund anzunehmen, dass am Ende der - oder das - bestimmt, der/das die Macht hat. Die W-Fragen (außer wer) hat doch noch nie das bestimmende Element auserkoren.


Bitte Anmelden oder Registrieren um der Konversation beizutreten.


"Künstliche Intelligenz", Tranhumanismus und Big Data 14 Mär 2019 17:40 #49745

Wl01 schreibt:
<<Das heißt die KI kann nur so gut sein, wie sie Informationen bekommt und bei falschen Informationen letal reagieren.<<


Völlig richtig. Aber der Witz dabei ist, dass auch Menschen bei falschen Informationen falsch reagieren.
Deshalb behaupte ich:
Die Entscheidungen der Algorithmen für das eigene Leben werden von Menschen künftig zunehmend akzeptiert werden, wenn sie besser als die eigenen sein werden!
Ich stelle immer wieder fest, dass bei vielen unreflektiert die Annahme vorliegt, dass KI erst dann wirklich autonom zum Einsatz kommen dürfe, wenn sie absolut fehlerfrei Entscheidungen treffen könne.
Das wird wohl nie der Fall sein, selbst eine künftige harte KI, also eine postbiologische Entität, wird nicht fehlerfrei sein.
Der entscheidende Punkt ist aber: Sobald Menschen merken werden, dass ein Algorithmus zwar keine idealen und fehlerfreien Entscheidungen für sie trifft, aber im statistischen Mittel und langfristig deutlich bessere als sie selber, werden immer mehr Menschen ihre wichtigen Entscheidungen den Algorithmen überlassen, ob nun bei der Berufswahl (zumindest jene, die künftig noch nicht „Out-of-the-loop sind“), beim autonomen Fahren oder Fliegen, ja sogar bei der Partnerwahl, bei der Wahl des für sie am besten geeigneten Hobbies oder Sports oder einfach nur bei der Wahl der für sie besten Lektüre etc. Es wird eine Zeit kommen, wo es als unvernünftig gelten wird, es nicht zu tun, und zwar, so seltsam es klingt, mit Recht. Die Entscheidung wird überspitzt und pointiert lauten: Will ich all die vielen Fehler selber machen und die Konsequenzen tragen, die meine Lebensqualität senken, weil die eigenen Entscheidungen im Vorfeld nur eine allenfalls durchschnittliche Qualität aufwiesen (man bedenke: Wir treffen die wichtigsten Lebensentscheidungen und Weichenstellungen in unserer Jugend, wo uns noch jede Erfahrung fehlt) oder will ich mich lieber von einem Algorithmus „lesen“ lassen, der dann die für mich nahezu optimalen Entscheidungen trifft, um meine Lebensqualität deutlich langfristig zu erhöhen und unnötigen Stress zu vermeiden? Werden die Leute darauf verzichten, nur um sagen zu können, dass sie selbstbestimmt sind und um die emotionale Kränkung zu vermeiden, von einem Algorithmus gesagt zu bekommen, was für sie auf allen Ebenen das Beste ist? Ich glaube, dass hier die Bequemlichkeit und das Nutzenkalkühl siegen werden. Mag der Vergleich etwas hinken, aber wer sagt heute schon, er gehe lieber von München nach Nürnberg, um die Landschaft zu genießen und um die Anstrengung eines langen mühsamen Fußmarsches mit seinen Entbehrungen zu erleben, wenn er bequem mit dem Auto in 1-2 Stunden dort sein kann? Zudem wird genau auf diesen Gebieten künftig ungeheuer viel Geld gemacht werden. Und die entsprechenden Akteure werden mit viel Aufwand dafür sorgen, es den Leuten schmackhaft zu machen, und zwar auf eine Weise, dass es ihnen nicht mal so richtig bewusst wird.
Klar, das wird zum einen unser Selbstverständnis und unsere Vorstellung von Autonomie gewaltig verändern und es wird eben auch ein Grund sein, warum wir zu Cyborgs werden, warum es zu einer Verschmelzung von Menschen, Algorithmen und Maschinen kommen wird.
Die westlichen Demokratien werden in ihrer heutigen Form diese kommende Verschmelzung von Bio-, Informations- und Mikroelektroniktechnologie nicht überstehen. Sie werden verschwinden oder sich wandeln. Eine eher autoritäre Staatsform, wie sie China aufweist, hat meines Erachtens hier die besten Ausgangsbedingungen, da seine Entwickler die eignen Algorithmen mit den Daten von fast einer Milliarde Menschen weiterentwickeln können. Der gleiche Vorteil besteht auch, wenn es um die Auswertung medizinischer Daten zur gentechnischen Optimierung des heutigen Menschen geht.
Es war wohl Seneca, der sagte: „Den Willigen führt das Schicksal, den Unwilligen zerrt es mit sich.“ Künftig könnte es wohl heißen: „Den Willigen führen die Algorithmen, den Unwilligen zerren sie mit sich.“ Warum? Weil all jene, die sich diesem Prozess verweigern gnadenlos auf die Verliererstraße geraten werden, da künftig zunehmend über deren Köpfe hinweg die Entscheidungen gefällt werden. Dies gilt für Individuen innerhalb einer Gesellschaft, die diesen Weg einschlägt wie auch für ganze Nationen, die im Vergleich zu anderen durch restriktive Gesetze die Entwicklung einzudämmen oder aufzuhalten versuchen werden. So gesehen wirkt hier auch das evolutionäre Prinzip des Zwangs zur Anpassung, eben jetzt auf der Ebene der kulturellen Evolution, die nun der biologischen nachgelagert ist.
Thomas hat mit Recht darauf verwiesen, dass diese Auslese- und Selektionsprozesse bereits seit dem Urknall im Gange sind, eben auf unterschiedlichen Ebenen der Entwicklung und damit auch nicht 1:1 vergleichbar:
Erst Bildung einer Physiosphäre, dann Entstehung einer Biosphäre mit dem Menschen als vorläufigen Höhepunkt der Entwicklung, womit auch das Auftreten einer Noosphäre einher ging, die jetzt weiter im Rahmen der kulturellen Evolution mit dem Erscheinen transhumanistischer Prozesse und der langfristigen Entwicklung hin zu postbiologischer Entitäten sich weiter ausprägen wird, falls nicht tragische Fehlentwicklungen und Katastrophen sie hier auf diesem Planeten wieder zum Verschwinden bringen, was durchaus auch passieren könnte (und vermutlich unzählige Male im Universum auch schon geschehen sein dürfte und noch geschehen wird), wenn wir zum Beispiel fleißig weiter den Klimaofen der Erde aufdrehen, wonach es aussieht, und/oder das gesamte Nukleararsenal eher vom Stapel laufen lassen als es uns gelingt, mit hochentwickelter KI eine Symbiose einzugehen, wodurch „wir“, genauer natürlich unsere transhumanistischen Nachfahren, dann künftig in der Lage wären, als Kollektiv eine langfristige Zukunftsperspektive zu haben, weil sich dadurch auch „unsere“ habitable Zone über die Biosphäre der Erde hinaus in das Sonnensystem und viel später und langfristig in die näheren Bereiche der Galaxis ausdehnen könnte.
Yuval Harari, der das Kommende durchaus auch sehr kritisch und mit einem gesunden Schuss an Skepsis sieht, erklärt diese Aspekte recht gut in seinem Interview im SRF, das ich im letzten Beitrag #49669 verlinkt habe.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Folgende Benutzer bedankten sich: HubertS

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

"Künstliche Intelligenz", Tranhumanismus und Big Data 14 Mär 2019 18:43 #49746

Hallo Cyborg

super Beitrag, dem kann ich nur zustimmen.

Ich habe mich nach dem Lesen deines Betrags einfach mal in meinem alltäglichen Umfeld umgesehen und überlegt was mir alles von Algorithmen heute schon abgenommen wird. Enorm. Und ich hab gar nichts dagegen, im Gegenteil, ich bin echt froh darum.

Dann ist mir folgendes durch den Kopf gegangen. Ich fahre in einem Auto und ein Kind rennt mir davor (ich hab ein Kind gewählt, weil das emotional höhere Wellen schlägt). Ich hab keine Chance mehr zu bremsen, nur noch ausweichen und in eine Gruppe Leute fahren. Die Entscheidung muss in sekundenschnelle getroffen werden (ich glaube ich habe das Beispiel irgendwo in einer Diskussionsrunde um Ethik gehört).
Was wäre ich froh, wenn ich diese Entscheidung gar nicht treffen müsste, sondern ein Algorithmus das übernimmt.
Und das weitergesponnen auf Lenkungsebene (sprich Wirtschaft oder Regierung). Wenn ich mir die schwachsinnigen Entscheidungen die zum Teil getroffen werden anschaue, kann ich's kaum erwarten (frei nach Peter Fox).
Ach, und danke für den Tipp: Yuval Harari.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

"Künstliche Intelligenz", Tranhumanismus und Big Data 14 Mär 2019 22:13 #49750

Hallo HubertS, du schreibst:
Ich habe mich nach dem Lesen deines Betrags einfach mal in meinem alltäglichen Umfeld umgesehen und überlegt was mir alles von Algorithmen heute schon abgenommen wird. Enorm. Und ich hab gar nichts dagegen, im Gegenteil, ich bin echt froh darum.

Ich glaube auch, dass sich dieser Trend noch dramatisch beschleunigen wird. Wir leben im Grunde in einer Explosion des techn. Fortschritts, der zu disruptiven Veränderungen führen wird.
Wenn du offen bist für das Thema und es nicht - wie viele oder gar die meisten Zeitgenossen - einfach ausblenden willst nach dem Motto, wenn ich mich nicht damit befasse, dann kommt es auch nicht**, dann schau dir auch die beiden übrigen Beiträge aus #49669 an ("Robo Sapiens" und vor allem "Was Goethe schon über BigData wusste")
Anmerkung **:
Versteckter Inhalt oder OFF-Topic [ Zum Anzeigen klicken ]

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

"Künstliche Intelligenz", Tranhumanismus und Big Data 15 Mär 2019 06:24 #49757

  • wl01
  • wl01s Avatar
  • Offline
  • Platinum Boarder
  • Platinum Boarder
  • Beiträge: 1066
  • Dank erhalten: 116

Cyborg schrieb:

Wl01 schreibt:
<<Das heißt die KI kann nur so gut sein, wie sie Informationen bekommt und bei falschen Informationen letal reagieren.<<

Völlig richtig. Aber der Witz dabei ist, dass auch Menschen bei falschen Informationen falsch reagieren.
Deshalb behaupte ich:
Die Entscheidungen der Algorithmen für das eigene Leben werden von Menschen künftig zunehmend akzeptiert werden, wenn sie besser als die eigenen sein werden!
Ich stelle immer wieder fest, dass bei vielen unreflektiert die Annahme vorliegt, dass KI erst dann wirklich autonom zum Einsatz kommen dürfe, wenn sie absolut fehlerfrei Entscheidungen treffen könne.
Das wird wohl nie der Fall sein, selbst eine künftige harte KI, also eine postbiologische Entität, wird nicht fehlerfrei sein.
Der entscheidende Punkt ist aber: Sobald Menschen merken werden, dass ein Algorithmus zwar keine idealen und fehlerfreien Entscheidungen für sie trifft, aber im statistischen Mittel und langfristig deutlich bessere als sie selber, werden immer mehr Menschen ihre wichtigen Entscheidungen den Algorithmen überlassen, ob nun bei der Berufswahl (zumindest jene, die künftig noch nicht „Out-of-the-loop sind“), beim autonomen Fahren oder Fliegen, ja sogar bei der Partnerwahl, bei der Wahl des für sie am besten geeigneten Hobbies oder Sports oder einfach nur bei der Wahl der für sie besten Lektüre etc.

Ich denke nicht, dass die Entscheidungen der KI so wie sie sind akzeptiert werden. Und der Grund ist nicht, weil sie fehlerfrei sind oder nicht. Fehler würde der Mensch auch von einer KI akzeptieren. Der Grund ist psychologisch bedingt. Weil die KI eben andere Fehler begeht als ein normaler Mensch. Wenn sie "menschliche" Fehler begehen würde, wäre die Akzeptanz wohl eher vorhanden. Wie ich im letzten Post beschrieben habe, wird der Mensch nie, ich wiederhole nie, den Fehler einer KI akzeptieren, dass sie 175 Mensch in den Tod schickt, nur weil ein Sensor falsch interpretiert wird. Dass sie es eventuell akzeptiert, dass ein "Überziehen" des Flugzeuges ebenso zum Tod führen würde (stall, Strömungsabriss), wäre menschlich und würde viel weniger Widerstand auslösen.

Deshalb liegt das Problem nicht bei der grundsätzlichen "Fehlerhaftigkeit" einer KI, sondern bei der Art des Fehlers einer KI.
Denn das könnte dazu führen, dass die KI den Kühlschrank sperrt, weil nur ungesunde Lebensmitteln, die nicht zum Diätplan des Menschen passen, im Kühlschrank vorhanden sind und der arme Mensch verhungert, weil seine Wohnungstür nicht aufgeht, weil er sie auf "nicht stören" geschalten hat,....:silly:

MfG
WL01
Folgende Benutzer bedankten sich: badhofer

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

MfG
WL01

"Künstliche Intelligenz", Tranhumanismus und Big Data 15 Mär 2019 07:14 #49760

.
wl01
Auf den Punkt gebracht. Bravo
.

Ohne etwas wäre nicht einmal nichts

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Ohne etwas wäre nicht einmal nichts

"Künstliche Intelligenz", Tranhumanismus und Big Data 15 Mär 2019 11:37 #49769

wl01 schrieb: Denn das könnte dazu führen, dass die KI den Kühlschrank sperrt, weil nur ungesunde Lebensmitteln, die nicht zum Diätplan des Menschen passen, im Kühlschrank vorhanden sind und der arme Mensch verhungert, weil seine Wohnungstür nicht aufgeht, weil er sie auf "nicht stören" geschalten hat,....:silly:

also das ist auf den punkt gebracht , mann kann darüber lachen bis man selbst betroffen ist . und ich fürcht das dieses auch eintreten wird :(

Wir leben zwar alle unter dem gleichen Himmel, aber es haben nicht alle den gleichen Horizont.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Wir leben zwar alle unter dem gleichen Himmel, aber es haben nicht alle den gleichen Horizont.

"Künstliche Intelligenz", Tranhumanismus und Big Data 15 Mär 2019 18:21 #49777

wl01 schreibt:
Denn das könnte dazu führen, dass die KI den Kühlschrank sperrt, weil nur ungesunde Lebensmitteln, die nicht zum Diätplan des Menschen passen, im Kühlschrank vorhanden sind und der arme Mensch verhungert, weil seine Wohnungstür nicht aufgeht, weil er sie auf "nicht stören" geschalten hat,...

Das ist aber nun an den Haaren herbeigezogen, beeindruckt mich nicht. Die Zeit arbeitet für meine Thesen. Du wirst sehen, wie Recht ich bekommen werde. Die Algorithmen werden in vielen Bereichen den Menschen epistemisch überlegen sein. Dazu braucht es keine harte KI oder Bewusstsein der Algorithmen.
Jetzt gibt es immer noch einige tausend Verkehrstote in DE. Durch autonomes Fahren wird die Zahl drastisch sinken. Einige spektakuläre Unfälle durch KI Fehler wird man in Kauf nehmen. 5000 Tote oder 500 im Jahr? Zwei hässliche aber ganz klar unterscheidbare Optionen. Ähnlich wie die Gurtpflicht vor 35 Jahren müsste da eigentlich schon ein verantwortungsvoller Verkehrsminister hergehen und das Selbstfahren verbieten, wenn die Technik entsprechend einsatzfähig ist.
Nein, deine Bedenken werden durch Bequemlichkeit und Nützlichkeitsstreben, das Vorteile bringt, regelrecht pulverisiert werden. Zudem werden solche Bedenken schon alleine aus biologischen Gründen verschwinden, denn für die jetzt heranwachsenden jungen Leute wird es das Normalste der Welt sein, sich von Algorithmen durchs Leben führen zu lassen.....und so werden sie still und heimlich und ohne es bemerken zum Cyborg, so jedenfalls meine Prognose. :cheer:

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Folgende Benutzer bedankten sich: Brooder

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

"Künstliche Intelligenz", Tranhumanismus und Big Data 15 Mär 2019 18:35 #49778

  • wl01
  • wl01s Avatar
  • Offline
  • Platinum Boarder
  • Platinum Boarder
  • Beiträge: 1066
  • Dank erhalten: 116
Sorry, nicht überzogen, sondern nur logisch weitergedacht. Die Beispiele der Fehler einer KI habe ich schon in anderen Threads genannt und sie sind einfach nicht akzeptabel. Und wenn sie trotzdem von der KI gemacht werden, wird eben der Hersteller des Fahrzeuges oder der Programmierer der Software zur Kasse gebeten werden und dann schaue ich mir an, ob so ein Gerichtsurteil ohne Konsequenzen bleiben wird. Boing wird beispielsweise einen hohen Preis für seinen KI-Fehler zahlen müssen.
Und um gegen eine derartige überlegene KI nach deinem Vorbild gewappnet zu sein, wird uns Menschen eben nichts anderes übrigbleiben, als selbst zu einem Cyborg zu werden. Ich habe damit schon begonnen, ich habe bereits eine technische Aufrüstung im Ohr und seit ein paar Wochen in jedem Auge eine Kunststofflinse eingesetzt bekommen...:lol:

MfG
WL01

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

MfG
WL01

"Künstliche Intelligenz", Tranhumanismus und Big Data 15 Mär 2019 18:48 #49780

Cyborg schrieb: Jetzt gibt es immer noch einige tausend Verkehrstote in DE. Durch autonomes Fahren wird die Zahl drastisch sinken. Einige spektakuläre Unfälle durch KI Fehler wird man in Kauf nehmen. 5000 Tote oder 500 im Jahr? Zwei hässliche aber ganz klar unterscheidbare Optionen. Ähnlich wie die Gurtpflicht vor 35 Jahren müsste da eigentlich schon ein verantwortungsvoller Verkehrsminister hergehen und das Selbstfahren verbieten, wenn die Technik entsprechend einsatzfähig ist.


Meine Angst geht hier um die Sicherheit von Anschlägen durch Cyberangriffe. Geheimdienste bekommen so ein tolles Mittel, unliebsame Personen ganz einfach verschwinden lassen zu können (KI-Fehler).

Terroristen oder "Staatsterroristen", wenn sie es denn schaffen, sich in die selbstfahrenden Autos einzuhacken, könnten damit etwas verursachen, das das World Trade Center Attentat um Größenordnungen übersteigt.

Das Problem ist für mich, dass die Hersteller der KI-Software ihre Software bei Bedarf updaten wollen, ohne dass man die vielen Autos dafür in die Werkstatt ruft. Und genau da könnte ein Angreifer ansetzen.

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.

"Künstliche Intelligenz", Tranhumanismus und Big Data 15 Mär 2019 19:06 #49781

Cyborg schrieb:
Jetzt gibt es immer noch einige tausend Verkehrstote in DE. Durch autonomes Fahren wird die Zahl drastisch sinken. Einige spektakuläre Unfälle durch KI Fehler wird man in Kauf nehmen. 5000 Tote oder 500 im Jahr? Zwei hässliche aber ganz klar unterscheidbare Optionen.


So in etwa wollte ich auch eine Antwort formulieren.
Es gibt keine Statistik, wieviele Menschen durch Flugzeugabstürze ums Leben gekommen wären, wenn es kein regulierendes eingreifen einer KI gegeben hätte.
Wenn Fehleinschätzungen oder Leichtsinnigkeit von Piloten nicht durch KI korrigiert worden wären.
Die KI kennt keinen Leichtsinn oder Selbstüberschätzung.
Gäbe es so ein Statistik, ich glaube ich weiß, in was für ein Fortbewegungsmittel ich mich setzen würde.

wl01 schrieb:
ich habe bereits eine technische Aufrüstung im Ohr und seit ein paar Wochen in jedem Auge eine Kunststofflinse eingesetzt bekommen...



Gott sei Dank, dem techischen Fortschritt.
Wer den Unterschied zwischen kaputtem Hüft- oder Kniegelenk und wiederstandsfähigen künstlichen Gelenken, oder getrübter natürlicher- und klarer künstlicher Augenlinse kennt, wird nichts gegen den Ausstausch organischer Körperteile gegen anorganische Ersatzteile haben.
Übrigens hätten sich auch Menschen vor tausend Jahren nach solchen Möglichkeiten gesehnt.

Und, wenn es in Zukunft einen Hirnschrittmacher gegen Depressionen gibt, werden die Leute Schlange danach stehen.
Die Frage ist halt, was für Schrittmacher mit welchem Ziel in der Psyche noch entwickelt werden können und werden.

Gene brauchen Vielfalt und der Grips auch

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Gene brauchen Vielfalt und der Grips auch

"Künstliche Intelligenz", Tranhumanismus und Big Data 16 Mär 2019 09:54 #49814

Claus,
die oft genannte Angst vor Cyberattacken beim autonomen Fahren wird m.E. oft gerne vorgeschoben, um eine allgemeine Skepsis gegen das Aus-der-Hand-geben von Entscheidungen zu begründen. Ein guter Freund von mir verweist auch immer darauf.
Meine Antwort: Ja, das wird wohl auch passieren, aber noch mal die einfachen und klar unterscheidbaren Alternativen: jetzt 5000 Verkehrstote und viele Verletzte alleine in DE (kenne die aktuellen Zahl nicht, rechergiere jetzt auch nicht), in x Jahren vll <500. Gibt es da was zu überlegen? Falls aber das System so unsicher sein wird, dass es zu deutlich mehr Attacken kommen kann, dann wird man reagieren oder es setzt sich nicht durch, was ich aber nicht glaube.
Und Cyberattacken gegen einzelne Autos wären doch - so zynisch es klingt - nur Nadelstiche. Richtig Angst sollten wir vor Attacken haben, wo es massiv gegen Infrastrukturen gehen wird (E-Kraftwerke bzw. das gesamte Verbundnetzt z.B. Europas; Stichwort "Blackout", gutes Buch, das ein Freund gelesen hat). Sollen wir deshalb das Stromnetz abschalten, quasi vorsorglich? Wohl kaum.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

"Künstliche Intelligenz", Tranhumanismus und Big Data 16 Mär 2019 10:23 #49816

.
Cyborg, ich gehe davon aus, dass du inzwischen eingesehen hast, dass das, was du ursprünglich als KI bezeichnet hast, nicht machbar ist. Denn dafür müsste man beim kleinsten anfangen. Und das wäre z.B. Amöben künstlich herzustellen. Es gibt jedoch bis heute nicht den geringsten Hinweis, dass das jemals möglich werden könnte. Was natürlich morgen anders sein kann, dass kann man natürlich nicht ausschließen, aber per heute ist das so.

Autonomes Fahren hat mit deinem ursprünglichen Begriff von KI nichts zu tun. Die Software unterscheidet sich dabei von einem elektronischen Wecker lediglich dadurch, dass sie größer, schneller, komplizierter und komplexer ist. Aber mit KI hat das nichts zu tun.

Es spricht ja nichts dagegen, dass man etwas macht, was leben retten kann. Mit KI hat das allerdings nichts zu zun.
.

Ohne etwas wäre nicht einmal nichts

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Ohne etwas wäre nicht einmal nichts

"Künstliche Intelligenz", Tranhumanismus und Big Data 16 Mär 2019 12:15 #49825

Zum Menschsein gehört es, voranzuschreiten, Neues zu entdecken und Umzusetzen. Ängste sind Warnhinweise, die helfen sollen, genauer hinzuschauen und nicht zu blauäugig zu sein. Aber sie können und dürfen den Fortschritt nicht aufhalten, sonst würde das Menschsein vertan.
Aber es gibt doch unterschiedliche Situationen. Revolutionäre Neuerungen wie der Beginn von Ackerbau wurden mit einer langen skeptischen Periode begleitet. Zuerst war die Jagd dem Ackerbau noch überlegen, jagen wurde nur ganz allmählich an die Seite geschoben. Es gibt bis heute keine allgemeinen Kriterien, die sagen können, was besser wäre. Bis vor wenigen Jahrzehnten gab es Volksgruppen, die in der Steinzeit lebten. Für die einen eine Schreckensvorstellung (keine medizinische Versorgung), für andere als natur-gerechte Lebensweise glorifiziert. Wer will entscheiden, was gewichtiger ist: Kein Zahnarzt oder keine Öko-Krise?
Unsere Erfahrungen machen uns zu Recht vorsichtig. Megatechnologien wie AKWs haben sich als nicht sinnvoll herausgestellt. Fortschritt, der wahrscheinlich in Sackgassen führt, ist kein Fortschritt, sondern Dummheit.
Anders sieht es mit der Abhängigkeit von sog. Autonomen Systemen aus. Da lassen sich viele gute Beispiele anführen, aber auch Negative. Das erinnert doch an die oben angeführte neolithische Revolution. Ein wesentlicher Unterschied zu damals scheint mir die Geschwindigkeit der Revolution zu sein. Da bleibt kaum Spielraum für vorsichtiges Abtasten. Wir wissen nur ansatzweise, welche Auswirkungen die heutige Technologie auf Psyche, Kommunikation, Sozialstruktur, Lernverhalten/Gehirnaktivitäten, Ökosystem, Machtstrukturen (Manipulations-Praxis), Terrorismus… hat. Aber wir gehen in rasendem Tempo vorwärts.
Indien macht über 1 Mrd. Menschen gläsern, China macht ca. 1 Mrd. Menschen mittels digitaler Bestrafung zu geistigen Gefängnisinsassen. Facebook mit all seinen aufgekauften Möglichkeiten macht mit den Daten von vielen Mrd. Menschen, was es will, Manipulation total. Bots manipulieren in unbekanntem Umfang öffentliche Diskussionen. Filterblasen sind online viel wasserfester und treiben die Spaltung von Gesellschaften voran.
All das und viel mehr bremst in keiner Weise die Digitalisierung, die von Politikern wie die höchste anzubetende Gottheit behandelt wird.
Es bleibt keine Zeit für ein vernünftiges Abwägen. Deshalb kommen Ängste hoch und Dystopien haben Konjunktur, weil Dystopien wie 1984 in gewissen Aspekten Realität geworden sind.
Und wenn dann vorhergesagt wird, dass das Internet der Dinge, autonome Systeme und diverse Formen von sog. KI alle bisherigen Veränderungen in den Schatten stellen, dann sollten schon alle Alarmglocken schellen.
Die Entwicklung von Techniken lässt sich nicht bremsen, dazu ist der internationale Wettbewerbsdruck zu stark. Aber flächendeckende Zulassungen lassen sich schon moderieren. Langjährige mehrstufige Testverfahren kann der Gesetzgeber vorschreiben, das wäre in Bezug auf sog. Autonomes Fahren mein Vorschlag, wobei mir Zeiträume im zweistelligen Bereich vorschweben. Bis dahin wird evtl. die Ökokrise den Individualverkehr ausbremsen.
Systemrelevante Techniken brauchen immer einen Plan B, wenn etwas versagt. Strom hat Notstromsysteme in lebenswichtigen Bereichen (Krankenhäuser). Bei Mobilität ist das schwieriger, d. h. es braucht mehrere Standbeine, autonomes Fahren darf keine Monopolstellung bekommen.
Hier mal ein mögliches Mobilitätskonzept der Zukunft (eine Utopie): Öffentlicher Verkehr ist der Normalfall, im Fernverkehr hat die Schiene dabei Priorität. Im Nahbereich gibt es für Personen und Lasten Carsharing, das weitgehend durch autonomes Fahren mit engen Geschwindigkeitsgrenzen geschieht. Für Stadt und Land gibt es unterschiedliche Ausführungen, Wohnviertel können beinahe autofrei sein.
Man kann viele solcher Utopien erzeugen, aber keiner kann sagen, was besser ist. Risiken kann man nie ausschließen, auch etwas nicht zu nutzen ist ein Risiko, das man nicht abschätzen kann, weil viele andere Parameter (z. B. gesellschaftlicher Art) sich ändern.
Auch Dystopien sind keine Grenzen gesetzt. Vielleicht sind wir irgendwann so von chinesischer Technik abhängig, dass wir ihr Punktesystem schlucken, das wiederum uns dazu zwingt, chinesische autonome Autos zu benutzen, so dass sich so eine Diskussion hier erübrigt.
Will sagen: Bedenken gibt es theoretisch unendlich viele, damit lässt sich aber nicht die Welt gestalten.
Wir brauchen Abwägungen aufgrund von Erfahrungen. Dazu müssen Zeiträume geschaffen werden.

@ Badhofer: Hier wird von KI gesprochen und es jedem selbst überlassen, ob man darunter harte oder weiche KI versteht. Für Cyborg ist harte KI eine Extrapolation der bisherigen Technikentwicklung, für mich eine eschatologische Größe. Niemand, erst recht nicht Cyborg, glaubt, dass KI genau so ein Leben ist wie das, was wir bisher in unserer Biosphäre haben.
Ich dachte, ich hätte in meinem Eingangsposting klar gemacht, dass die pragmatisch-gesellschaftliche Diskussion in diesem Thread nicht durch diese Grundsatzfrage abgewürgt werden sollte.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

"Künstliche Intelligenz", Tranhumanismus und Big Data 16 Mär 2019 22:29 #49850

Martin-O schrieb:
@ Badhofer: Hier wird von KI gesprochen und es jedem selbst überlassen, ob man darunter harte oder weiche KI versteht. Für Cyborg ist harte KI eine Extrapolation der bisherigen Technikentwicklung, für mich eine eschatologische Größe. Niemand, erst recht nicht Cyborg, glaubt, dass KI genau so ein Leben ist wie das, was wir bisher in unserer Biosphäre haben.
Ich dachte, ich hätte in meinem Eingangsposting klar gemacht, dass die pragmatisch-gesellschaftliche Diskussion in diesem Thread nicht durch diese Grundsatzfrage abgewürgt werden sollte.

Danke, Martin, für diese Klarstellung, stimme auch sonst deinem letzten Post im Großen und Ganzen zu.
Es schadet aber dennoch nicht, wenn wir mal versuchen die Begrifflichkeiten halbwegs zu ordnen und uns einen Überblick zu verschaffen. Das war auch ein Hinweis oder Anliegen von Thomas weiter oben, wo ich ihm auch zustimme, obwohl das gar nicht so einfach umzusetzen ist. Da mich das Thema schon sehr lange beschäftigt, kann ich da natürlich jetzt relativ einfach auf eigene Aufzeichnungen zurückgreifen, die ich hier mal reinstellen will. Damit erhebe ich natürlich keinen Anspruch auf Objektivität, sondern gebe nur meine subjektiven Definitionen und Gedanken rund um die Schlagwörter des Threads wieder, die mir helfen sollten, etwas Struktur in dieses weite Feld zu bringen. Mag es richtig oder falsch sein, aber ich kopiere hier mal einiges rein, wissend, dass damit ein Monsterbeitrag entstehen wird, aber der Vorteil wird sein, dass man dann in der Frage der Begrifflichkeiten auf diesen einen Beitrag verweisen oder sich auch an seinen Inhalten reiben kann.
Um folgende Begriffe soll es gehen:

Weiche künstliche Intelligenz
Harte künstliche Intelligenz
Intelligenzbegriff allgemein
Bewusstsein
Entität
Transhumanismus
Technologischer anthropomorpher Posthumanismus
Technologischer radikaler Posthumanismus
Kritischer Posthumanismus
Selbstursprünglichkeit
Autonomie


Die Aufzählung ist nicht vollständig, die Bedeutung weiterer Begriffe, wie ich sie verwende, wird sich unten in den Aussagen ergeben.

Klärung der Begriffe Transhumanismus und Posthumanismus, ihre Unterscheidungen und Unterarten


Transhumanismus:
Die Optimierung der geistigen, mentalen, kognitiven und körperlichen Fähigkeiten des Menschen durch Bio- und Neuroenhancement und durch alle zur Verfügung stehenden Möglichkeiten, die sich aus den Entwicklungen der Gentechnik, der Robotik, der Nanotechnologie sowie der Mikroelektronik (künstliche neuronale Netze; Deep Learning Methoden; KI-Technologie) ergeben und die auf eine Verschmelzung, Synthese und Symbiose des heutigen Menschen mit Maschinen bzw. artifiziellen Komponenten hinauslaufen, um die kulturelle Evolution der Menschheit voranzutreiben. Da bei diesem Prozess nur Wesen vorkommen, bei denen sowohl Bewusstsein wie auch Intelligenz im Spiel sind, handelt es sich in jedem Falle um Entitäten, die in diesem Prozess beteiligt sind und aus ihm hervorgehen werden.

Technologischer anthropomorpher Posthumanismus:
Prämisse: Nicht das Substrat (ob organisch-biologisch oder anorganisch-postbiologisch), sondern die Komplexität der jeweiligen Struktur in Verbindung mit Interaktion mit der Umwelt über Sensoren und Aktoren sowie eine entsprechende Unabhängigkeit von der Umwelt und die Anpassungsfähigkeit an sie.
Schaffung postbiologischer Strukturen, die über Formen der Intelligenz und/oder Bewusstsein verfügen, die Analogien oder gar Übereinstimmungen zu denen des Menschen aufweisen.
Fall 1: Treten sowohl Intelligenz und Bewusstsein in diesen Strukturen auf, so kann man sie als eine Entität bezeichnen und es darf angenommen werden, dass sie die Fähigkeit zu eigenständiger Weiterentwicklung und zur Autopoiesis haben.
Fall 2: Tritt nur Bewusstsein in diesen Strukturen auf, so sind sie auch als Entität zu bezeichnen, aber es dürfte die Fähigkeit zu eigenständiger Weiterentwicklung und zur Autopoiesis fehlen.
Fall 3: Tritt nur Intelligenz in diesen Strukturen auf, so sind sie nicht als Entität zu bezeichnen, aber sie dürften sehr wohl die Fähigkeit zu eigenständiger Weiterentwicklung und zur Autopoiesis haben.


Technologischer radikaler Posthumanismus:
Gleiche Prämisse wie im Falle des technologischen antrhopomorphen Posthumanismus
Schaffung postbiologischer Strukturen, die über Formen der Intelligenz und/oder Bewusstsein verfügen, die kaum oder gar keine Analogien oder gar Übereinstimmungen zu denen des Menschen aufweisen.
Auch hier gelten analog zu anthropomorphen Strukturen die gleichen Aussagen, die ich dort oben unter Fall 1-3 beschrieben habe.

Kritischer Posthumanismus:
Er kritisiert zum einen die althergebrachten klassischen humanistischen Vorstellungen mit ihrem anthropozentrischen Gedankengut als Basis aller daraus abgeleiteten Folgerungen.
Zudem sieht er hauptsächlich die technologischen Varianten des Posthumanismus sehr skeptisch, welche die transhumanistischen Ideen zuspitzen und bedenklich überhöhen; denn so werde die Ausrichtung an technischen Entwicklungen zum ultimativen Selbstzweck, die zudem von ökonomischen Interessen vereinnahmt würden. Als Folge einer solchen Verherrlichung des Künstlichen könne es zu einer Überwindung oder gar Abschaffung oder Vernichtung der heutigen Menschheit bzw. ihrer transhumanistischen Nachfahren durch eine künstliche postbiologische Superintelligenz ohne oder auch mit Bewusstsein kommen, was aus Sicht des kritischen Posthumanismus als nicht erstrebenswert, ja verwerflich gilt.
So ist der kritische Posthumanismus zum einem zwar offen für die Bestrebungen des Transhumanismus, obwohl er auch ihm gegenüber kritisch bleibt und dafür plädiert, jeden Schritt mit Bedacht zu gehen und sich die Konsequenzen so gut es geht vor Augen zu halten, zum anderen steht er skeptisch, ja ablehnend den technologischen Formen und Ausrichtungen eines einseitigen Posthumanismus gegenüber. Deshalb neigt der kritische Posthumanismus auch gegenüber der Auffassung der einzelnen Ausprägungen des technologischen Posthumanismus zu großer Skepsis, wonach Intelligenz und Bewusstsein die dominierenden und zu beherrschenden Schlüsselfunktionen wären, wodurch auch ihre Abhängigkeit von organischen biologischen Strukturen (Körper) negiert werde, woraus der kritische Posthumanismus seinerseits wiederum den kritischen Schluss zieht, dass die angedachten Konzepte des technologischen Posthumanismus und seiner einzelnen Spielarten einem unkritischen und unreflektierten Monismus der Information anheim gefallen seien, der sich von zeitgenössischen anthropologischen Erkenntnissen abgekoppelt habe und das Wesen des Menschen auf geistige Informationseinheiten auf unzulässige Weise zu reduzieren strebe.
Den Formen und Ausprägungen des technologischen Posthumanismus stellt der kritische Posthumanismus das Konzept eines Pathos alles Lebendigen entgegen, der von der Leidensfähigkeit der gesamten Natur ausgeht und nicht nur von der des Menschen. Netzwerkdenken, Netzwerkfühlen und letztlich auch ein Netzwerkhandeln (erinnert etwas an das Prinzip des kommunikativen Handelns im Sinne Habermas') wären somit die Leitgedanken und somit auch das Ziel des kritischen Posthumanismus. Vorsichtigen und wohldurchdachten Schritten im transhumanistischen Sinne zum Zwecke einer Weiterentwicklung des heutigen Menschen innerhalb der ablaufenden kulturellen Evolution hin zu einer friedlicheren und weniger Leid behafteten Welt steht er aber auch aufgeschlossen gegenüber.

Zur Intention aller transhumanistischen und posthumanistischen Bestrebungen:
Trotz aller möglichen Risiken und Gefahren, die sich hinter den meisten einzelnen Formen des Trans- bzw. Posthumanismus auftun und sich aus ihren Zielvorstellungen fast zwangsläufig ergeben bzw. durch Pervertierung zum Zwecke des Machtmissbrauchs oder aus ökonomischen Gründen durch skrupellose Menschen oder ganze Gesellschaften ergeben könnten, sollte dennoch nicht übersehen werden, wozu es allerdings eines wohlwollenden Blickes bedarf, dass es allen Richtungen primär in ihrer weltanschaulichen Ausrichtung darum geht, mit den sich auftuenden Möglichkeiten die kulturelle Evolution voranzutreiben und höhere Formen des Bewusstseins, der Intelligenz und des Seins zu schaffen, damit Entitäten entstehen, die im Vergleich zum heutigen Menschen über gesteigerte Fähigkeiten aller Art verfügen, die dazu führen sollen, die Lebensqualität künftiger Entitäten zu steigern und das mit Leben und Bewusstsein, ob nun auf biologischer oder postbiologischer Basis, schier zwangsläufig einhergehende Leid zu reduzieren. Sicher, diese Vorstellung mag der eine oder andere auch als naiv abtun, und er wird seine Argumente aufzählen können.
Man kann das große kosmische Ziel der kulturellen Evolution, so es denn überhaupt existiert, vielleicht sogar noch allgemeiner formulieren: Es geht darum, dass sich immer größere Bereiche des Universums ihrer Existenz bewusst werden und der Grad dieser Bewusstwerdung in Verbindung mit zunehmender Intelligenz und Empfindungsfähigkeit weiter gesteigert wird, um die Qualität des Seins vorhandener und entstehender Entitäten zu steigern und ihr Maß an Leid, soweit es geht, zu reduzieren.
Oder noch einfacher ausgedrückt: Es geht darum, dass sich Materie und Energie des Universums ihrer eigenen Existenz in immer höherem und subtilerem Maße bewusst werden.

Gründe bzw Rechtfertigung für den Transhumanismus aus meiner heutigen Sicht:

Wir, die Menschen, sind das Produkt einer evolutionären Entwicklung, die auch zu einem anderen Resultat hätte führen können. Wir konnten entstehen, hätten aber nicht zwangsläufig entstehen müssen. Somit ist auch menschliches Sein, so wie jedes Sein eben kontingenter Art und nicht als absolut zu setzen. Damit kann es aber auch in letzter und radikaler Konsequenz für uns verfügbar sein, denn es gibt keine letztendliche Begründung, die besagt, dass unsere jetzigen Eigenschaften, Modalitäten und genetisch-biologischen Konditionen so bleiben müssen wie sie jetzt sind.
So würden sich auch ohne transhumanistische Eingriffe künftig über einen langen Zeitraum durch natürliche evolutionäre Prozesse Veränderungen unserer biologischen Grundlagen einstellen. Somit gibt es aus ethischer und moralischer Sicht keine letztendliche Begründung, die eine von uns künstlich herbeigeführte Veränderung der Conditio humana a priori ausschließt, zumal niemand in der Lage ist, zu definieren, was denn überhaupt der Idealzustand bzw. eine optimale Conditio humana sein könnte. Diese Argumentation kann noch durch ein philosophisches bzw. erkenntnistheoretisches Element ergänzt werden.
Die „Kontingenztheorie der Wahrheit“ des US-Denkers Richard Rorty räumt zwar ein, dass die Möglichkeit der Abbildung von Wahrheit innerhalb unserer Begriffsysteme möglich ist. Er bezweifelt jedoch, dass sich ein solcher Wahrheitsstatus mittels Reflexion letztendlich generieren und in letzter Konsequenz begründen ließe. Somit ist in seiner Deutung Wahrheit nicht nur ein zufälliger, sondern eher sogar fast schon ein willkürlicher Modus der Rede. Ähnlich formuliert das in meiner Wahrnehmung auch Prof. Stefan L. Sorgner.
Der Transhumanismus fühlt sich aus dem bisher gesagten legitimiert und sieht seine Motivation darin, körperliche, geistige und mentale Verbesserungen, ja sogar deutliche Steigerungen der aller Fähigkeiten des heutigen Menschen zu erreichen, um das Leben qualitativ und quantitativ zu verbessern und Leid zu reduzieren, da er Leben bejaht. Er beruft sich auf die morphologische Freiheit jedes einzelnen, sich zu entwickeln und die technischen Möglichkeiten zu nutzen, die diesem Ziele dienen, um sich körperlich, geistig und mental so zu „designen“, wie es seiner Vorstellung entspricht. In praktischer Konsequenz wird sich somit der Mensch zum Cyborg entwickeln.

Gründe bzw. Rechtfertigung für radikalen technologischen Posthumanismus aus meiner heutigen Sicht:

Radikaler als der TH sind die Formen des PH, die an die Schaffung postbiologischer Entitäten (Harte KI) oder das Up-Loading menschlichen Bewusstseins in virtuelle Welten denken.
Dem PH geht es allgemein gesagt um die Entwicklung hin zu noch höheren Formen der Intelligenz und des Bewusstseins, damit sich die jetzt noch unbewusste (tote) Materie (und Energie) ihrer Existenz bewusst werden könne.
Meine generelle Einschätzung bzw. Meinung allgemein zur kommenden Entwicklung, ob nun auf dem Gebiet des TH oder des PH:
Veränderung und Fortschritt sind immer auch mit Risiken und Gefahren verbunden sowie mit dadurch einhergehenden Verunsicherungen bis hin zu Ängsten.
Wenn aber der mögliche langfristige und somit nachhaltige Nutzen1* nach bestmöglicher Abwägung der Pro- und Contra-Argumente die Risiken zu überwiegen scheint, dann sollte schon alleine aus prudenziellen Gründen das Unterfangen unternommen werden.
Wünschenswert wäre eine breite gesellschaftliche Debatte darüber, ob die nötigen Schritte gemacht werden sollten, aber Forscherdrang, globale Uneinigkeit und ökonomische Gründe werden dafür sorgen, dass die technologische Entwicklung schneller fortschreiten wird als die politische oder gesellschaftliche Debatte darüber Raum gewinnen wird.

1*: Nutzen hier nicht im anthropozentrischen, nicht mal humanistischen Sinne, sondern wirklich im transhumanistischen bzw. posthumanistischen Sinne gedacht. Und das ist aus Sicht eines klassischen Humanisten schon eine sehr radikale Position, denn da wird man künftig versuchen, ganz dicke Bretter zu bohren, die dicksten der Menschheitsgeschichte überhaupt. Ob die Bohrer lange genug, die Antriebsmotoren stark genug und genügend Bohrmilch vorhanden sein wird, wird sich zeigen.

Intelligenz und Bewusstsein – Entitäten

Ganz grob, denn schließlich sind wir hier nicht in einem philosophischem Forum:

Intelligenz ist die Fähigkeit zur Lösung von Problemen und Aufgaben.

Bewusstsein ist die Fähigkeit zur Empfindung von Schmerz, Freude, Angst, Glück, Emphatie, also kurzum eben gemäß dem klassichen Qualia-Begriff der subjektive Erlebnisgehalt eines mentalen Zustandes.

Biologische Wesen lösen Probleme und bewältigen Aufgaben durch eine Mischung aus rationaler Einsicht und emotionaler Empfindung. Vereinfacht gesagt vergleicht das Gehirn verschiedene Szenarien und wägt ihre Wahrscheinlichkeiten im Sinne einer subjektiven Nutzenoptimierung ab.
Selbst beim Menschen steht instrumentelle Vernunft überwiegend im Dienste emotionalen Wohlergehens. Das Bewusstsein ist beim Menschen womöglich hauptsächlich eine Art diplomatischer „Regierungssprecher“ des Gesamtorganismus, weniger ein Dirigent oder „Spielmacher“, der auf intellektueller Ebene alle möglichen Register zieht, um das Streben nach sowohl katastematischer und kinetischer Lust in der eigenen Wahrnehmung in einem gemäßigten Lichte erscheinen zu lassen und es zu rechtfertigen, ein Streben, das zudem an das jeweilige soziale und kulturelle Umfeld angepasst werden muss, damit es auch den anderen gefällt, denn der Mensch ist ein relationales Wesen und strebt nach Anerkennung.
(Anmerkung: Darin liegt auch der Grund, warum ein Um-Handeln im Zuge der Klimaerwärmung von der Masse der Weltbevölkerung nicht zu erwarten ist. Um-Denken alleine, das ja möglich ist und zum Teil auch schon geschieht, hilft nicht).
Je nach Sozialisierung und individuellem Werdegang ist dann für den einen die höchste Lust das Streben nach Macht und Geld (z.B. Oligarchen), für den anderen die Umsetzung altruistischer Prinzipien (z.B. Mutter Teresa). Dazwischen liegt natürlich die ganze Palette und das Spektrum an Motiven, von denen Menschen angetrieben werden, um Erfüllung und Sinn zu finden. Einig sind sich aber alle in ihrem Streben nach emotionalem Reibach. Das gute Gefühl ist die universelle Währung des Menschen. Nur die Arbeiten und Aktionen, denen sich Menschen hingeben, um möglichst viel von dieser Währung anzuhäufen, unterscheiden sich zum Teil drastisch.

Heutige Computer und Algorithmen lösen Probleme und Aufgaben auf rein analytischer Basis mit Hilfe maschineller Intelligenz, aber noch ohne eigenes Bewusstsein.

Festhalten können wir auch, dass im Menschen sowohl Bewusstsein als auch Intelligenz vorkommen.

Wir wissen heute noch zu wenig, um beurteilen zu können, welche der folgenden Möglichkeiten zutreffen:

A) Bewusstsein ist nur auf der Basis biologischer Strukturen möglich, postbiologische Entitäten
sind nicht möglich. Es tritt sehr wahrscheinlich nur in Kombination mit Intelligenz auf, allerdings ist auch nicht auszuschließen, dass es Bewusstsein ohne Intelligenz geben könnte.
B) Bewusstsein könnte zudem auch auf der Basis nichtbiologischer Strukturen entstehen. Es tritt sehr wahrscheinlich nur in Kombination mit Intelligenz auf, allerdings ist auch nicht auszuschließen, dass es Bewusstsein ohne Intelligenz geben könnte.
C) Intelligenz kann auf biologischer und nichtbiologischer Ebene entstehen. Da es außer biologischen Wesen mit Intelligenz (bereits primitive Lebensformen wie Viren verhalten sich intelligent und lösen Aufgaben und Probleme, obwohl sehr wahrscheinlich kein oder nur in rudimentärer Form Bewusstsein vorhanden ist) bereits weiche KI auf nichtbiologischer Basis gibt (künstliche neuronale Netze, die Menschen im Schach und Go schlagen), ist für beide dafür der Beweis bereits erbracht.
Die Frage ist, ob ab einem gewissen Maß an Intelligenz bei künftigen „Computern“ zwangsläufig auch Bewusstsein emergieren wird oder zumindest emergieren könnte oder eben nicht. Diese Frage reduziert sich somit darauf, ob es eine Verschränkung und gegenseitige Abhängigkeit von Intelligenz und Bewusstsein gibt, wenn die dazu nötigen komplexen Strukturen, das Substrat, in biologischer oder nichtbiologischer Form vorliegen. Muss genügend Intelligenz entstehen, damit Bewusstsein emergieren kann? Dass erst ein gewisses Maß an Bewusstsein vorhanden sein muss, damit Intelligenz entstehen kann, ist auszuschließen, sonst müsste man Viren (biologische Strukturen) oder AlphaGo (nichtbiologische Struktur als künstliches neuronales Netz) bereits Bewusstsein attestieren. Nun, ein Vertreter des Panpsychismus wird hier Einspruch erheben und meine Argumentation nicht gelten lassen, da er bereits auf atomarer Ebene rudimentäres Bewusstsein ansiedelt, ohne jedoch dafür einen Beweis erbringen zu können.
Allerdings ist gut möglich, dass erst ab einem gewissen Bewusstseinsgrad auch eine gewisse Intelligenzschwelle überschritten werden kann, was natürlich auch vice versa gelten könnte, eben wegen der möglichen wechselseitigen Bedingtheiten.
Naheliegend scheint mir aus dem Gesagten nun auch die Vermutung, dass zwar wohl kaum eine Struktur (Entität) mit hohem Bewusstseinsgrad (Superbewusstsein) ohne Intelligenz geben dürfte, aber sehr wohl eine Superintelligenz ohne Bewusstsein (hocheffiziente Algorithmen, die sich stetig weiter optimieren und die Fähigkeit zur Autopoiesis haben) gedacht werden kann. Die Entstehung von Intelligenz ohne Bewusstsein auf Basis biologischer oder nichtbiologischer Strukturen (Substrate) zu denken, also losgelöst und entkoppelt von Bewusstsein, erscheint somit naheliegender als die analoge Entstehung von Bewusstsein ohne Intelligenz, ob nun auf biologischer oder nichtbiologischer Basis.
Der wahrscheinlichste Fall scheint mir aber doch der zu sein, dass ab einem gewissen Maß an Intelligenz in Verbindung mit Wechselwirkungen und Rückkopplungen mit der Außenwelt über Aktoren und Sensoren letztlich Bewusstsein emergiert, ob nun auf biologischer oder nichtbiologischer Basis. Auf diese Weise dürften auch wir Menschen im Laufe der biologischen Evolution zu unserem Bewusstsein gekommen sein.
D) Bewusstsein ist immaterieller Natur und in der Lage und Willens nur in Strukturen auf biologischer Basis „einzukoppeln“. Es tritt sehr wahrscheinlich nur in Kombination mit Intelligenz auf.
E) Bewusstsein ist immaterieller Natur und zudem auch in der Lage und Willens in Strukturen auf nichtbiologischer Basis „einzukoppeln“. Es tritt sehr wahrscheinlich nur in Kombination mit Intelligenz auf.

Wer sich hier definitiv auf einen Punkt festlegt bzw. andere kategorisch ausschließt, verlässt den Boden der intellektuellen Redlichkeit, zumindest nach meiner Einschätzung.

Anmerkung zum Entitätsbegriff:
Von einer Entität würde ich bei einer komplexen Struktur im Kontext der obigen Ausführungen somit erst dann sprechen, wenn entweder nur Bewusstsein oder Bewusstsein in Verbindung mit Intelligenz in ihr vorkommen oder etwas vorsichtiger formuliert, wenn nicht zwingend nachgewiesen werden kann, dass dem nicht so ist. Dazu dürften uns alleine schon moralische Gründe zwingen. Das dürfte künftig ein heikler Punkt werden in Bezug auf hochkomplexe Algorithmen (künstliche neuronale Netze), die mit der Umwelt wechselwirken (perfekte Simulation einer Entität oder eben wirklich eine Entität?).
Dazu eine Anmerkung bzw. spekulativer Ausflug am Rande zum letzten Gedanken mit der in ihm inkludierten Problematik:

Versteckter Inhalt oder OFF-Topic [ Zum Anzeigen klicken ]


Eine Struktur mit Intelligenz, selbst wenn sie eine Superintelligenz wäre, würde ich nicht als Entität bezeichnen. Aber das ist jetzt wohl eine willkürliche Festlegung. Man könnte genau so gut auch Strukturen mit Intelligenz ohne Bewusstsein als Entitäten bezeichnen. Wichtig ist nur, dass im Diskursuniversum eine gewisse Einigkeit über die Terminologie herrscht.

"Der Mensch muss der Maschine vertrauen.“ (Titelüberschrift zu einem Interview mit der Philosophin Fr. Prof. Misselhorn von der Uni Stuttgart im Juli 2018
Anbei meine Kommentare zum Interview:

Sie hält harte KI für eher unwahrscheinlich, will sie aber künftig auch nicht ausschließen. Wie bekannt, ist meine Einschätzung genau gegenteilig.
Wichtig ihr Verweis, wie schwierig es ist, den Begriff „Intelligenz“ zu definieren.

Wann wird man bei Robotern von Handlungsfähigkeit sprechen müssen?

Gemäß ihren Ausführungen, wenn diese beiden Bedingungen erfüllt sind:
Selbstursprünglichkeit:
(Fähigkeit zur Interaktion mit Umwelt, gewisse Unabhängigkeit von dieser und ein Mindestmaß an Anpassungsfähigkeit an sie, wenn sich Umweltbedingungen ändern)

Handeln aus Gründen:
Regelkreis: Registrierter Istzustand im stetigen Abgleich mit dem Sollzustand und daraus resultierendes Handeln. Anmerkung: Das machen auf subtilere Weise auch Menschen, weil sie Meinungen über die Welt und sich selber haben und diese beständig mit ihrer Vorstellung abgleichen, wie die Welt und sie selber sein sollten, woraus die Motivationen für Handlungen entstehen, die dann zur Tat führen können, aber nicht müssen. Im Gegensatz zu Menschen, Tieren und wohl auch Pflanzen sind bei heutigen Robotern und Maschinen keine Emotionen im Spiel, keine Autonomie und kein freier Wille, wohl aber gemäß dem Gesagten eine Handlungsfreiheit.

Interessant auch ihre Ausführungen zum Autonomie-Begriff im Zusammenhang mit heutigen Maschinen. Hier beginnt bereits die Schwierigkeit, denn eigentlich beziehen sich alle Betrachtungen über heutige Maschinen oder Algorithmen auf ihre Handlungsfähigkeit (siehe oben), da sie keine Autonomie haben wie Menschen oder in Zukunft postbiologische Entitäten (harte KI) wohl haben werden.Wir reden hier aber oft vom autonomen Fahren oder lethalen autonomen Waffensystemen der Zukunft und wissen eigentlich gar nicht so recht, was genau darunter zu verstehen ist. Anhand der lethalen autonomen Waffensystemen erklärt sie gut die einzelnen Schritte hin zu immer mehr Entscheidungsfreiheiten für die Systeme bzw. Algorithmen:
Der Mensch zuerst noch „In-the-loop“, dann „on-the-loop“ und schließlich „out-of-the-loop“(Näheres im Artikel).
Nach meiner Einschätzung steuern wir künftig auf einen Punkt zu, wo wir selbst dann Algorithmen die Entscheidung überlassen werden, wenn wir Bedenken haben bzw. es aus unserem begrenzten Blickwinkel so aussieht, als würden sich die Algorithmen bzw die KI (ich rede hier nur von weicher KI) irren. Warum? Weil wir beim Überblicken der Gesamtlage, so uns dies selbst im Nachhinein überhaupt möglich sein wird, immer mehr feststellen werden, dass ihre Entscheidungen im statistischen Mittel deutlich besser sein werden als unsere eigenen.
Die Leute werden es als vernünftig ansehen, sich von Algorithmen und KI leiten zu lassen. Sie werden sie als so unverzichtbar ansehen wie heute die ständige Verfügbarkeit von Strom, Wasser, Sanitär und medizinische Versorgung in entwickelten Ländern. Die Algorithmen werden uns epistemisch überlegen sein und ihren Vorsprung beständig ausbauen. Prudenzielle Gründe in Verbindung mit Nutzenkalkül zur Optimierung der Lebensumstände werden dafür sorgen, dass Menschen sie für sich entscheiden lassen, denn erkennt man ihre Überlegenheit an, so liegt es doch nahe, ihnen zu vertrauen. Das heute noch bestehende Misstrauen wird rasch schwinden, die jungen Generationen werden sich von Kindesbeinen an daran gewöhnen und die älteren Semester, die sich verweigern, aussterben. Beruflich wird es nicht anders gehen, ohne im Wettbewerb zurückfallen zu wollen, und im privaten Bereich werden auch die Vorteile überwiegen, sodass man die Selbstständigkeit auf dem „Alter in der Kirche des gelingenden Lebens“ opfern wird. Wer sich verweigern wird, dürfte rasch zum Exoten werden, der Mühe haben wird, am Alltag der künftigen Welt teilzunehmen.
Wichtig auch:
Kommt es je zu einer harten KI, so könnte es aufgrund ihrer Autonomie mit eigenem freien Willen zu großen Zielkonflikten zwischen ihr und dem biologischem Leben inclusive dann wohl auch schon bereits den Planeten beherrschenden Cyborgs kommen.
Weiche KI und Algorithmen werden über keine Autonomie und keinen eigenen freien Willen verfügen, aber sehr wohl über große Spielräume, in denen wir ihre Handlungsfähigkeit praktisch zum Einsatz kommen lassen und nutzen werden, weil wir uns dadurch Vorteile erhoffen und sie auch haben werden. Trotz fehlnder Autonomie wird aber in diesem Falle die Gefahr des Außer-Kontrolle-geratens der weichen KI und Algorithmen gegeben sein.
Was auch passieren könnte, ist, dass weiche KI so perfekt harte KI simulieren wird, dass es uns unmöglich werden könnte, zu entscheiden, mit was wir bzw. die Cyborgs es letztlich zu tun haben. Im Zweifelsfalle müsste wir bzw. unsere "Nachfahren", die Cyborgs, dann auch dieser perfekt harte KI simulierenden weichen KI die gleichen moralischen und ethischen Rechte einräumen wie uns selber und eben auch harter KI.

Am Schluss noch mal der wesentliche Unterschied zwischen weicher und harter KI:
Künftig hoch entwickelte Weiche KI: (Super-) Intelligenz in Verbindung mit Handlungsfähigkeit (Handlungsfähigkeit = Selbstursprünglichkeit + Handeln aus Gründen) + Autopoiesis, aber nicht als Entität zu sehen und auch ohne die Eigenschaft der Entelechie (bin mir aber hier in Bezug auf Entität und Entelechie unsicher, ob diese Einschätzung zulässig ist; Graubereich?)
Harte KI: Alle Merkmale weicher KI + Bewusstsein + freier Wille/Autonomie. Daraus folgt, dass harte KI als eine Entität zu definieren ist mit der Eigenschaft der Entelechie.

Und meine Grundprämisse:
Alles, was durch das Wirken der Naturgesetze auf Materie und Energie in Raum und Zeit bzw. das etwaige und nicht ausschließbare Wirken womöglich auch transzendenter Einflüsse auf den Kosmos möglich ist, wird sich irgendwo und irgendwann in den Weiten des Universums mit hoher Wahrscheinlichkeit realisieren bzw. realisiert werden.
Deshalb gehe ich davon aus, dass neben den bereits hier auf der Erde entstandenen biologischen Entitäten auch postbiologische Entitäten entstehen können bzw. geschaffen werden. Auch hochkomplexe Formen weicher KI, wie ich sie definiere, also z.B. Superintelligenzen ohne Bewusstsein, die ich aus meiner Warte nicht als Entität sehe und auch ohne Entelechieeigenschaft, werden entstehen bzw. von biologischen oder postbiologischen Entitäten geschaffen werden.
Kurzum und dem sollte sich jeder anschließen können, der aus erkenntnistheoretischer Sicht anerkennt, dass die Naturgesetze und ihr Wirken auf Raum, Zeit, Materie und Energie den Rahmen abstecken und das "Spielfeld" und die Regeln definieren: Alles Denkbare auf dem Boden des naturgesetzlich Machbaren wird entstehen bzw. geschaffen werden können.


Das Interview in der "Zeit" mit Prof. Misselhorn:
www.zeit.de/digital/2018-07/kuenstliche-...tsein-robotik-denken

PS: Schaut euch den Robi von Boston Dynamics an. Dann versucht euch mal vorzustellen, wie ein solcher in 30 Jahren agieren wird bei dem Entwicklungstempo auf diesem Gebiet. Der Unterschied wird wohl größer sein als zwischen Flugzeugen der 1920ziger Jahre und heutigen Jets.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Folgende Benutzer bedankten sich: Marvin

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

"Künstliche Intelligenz", Tranhumanismus und Big Data 17 Mär 2019 10:21 #49870

Hallo Cyborg, das war für ein Forum sicher eine ordentliche Wortwand, aber mir hat es geholfen, deine Vorstellungen besser zu verstehen. War außerdem gut gemacht. Wie du dir vielleicht schon denkst, gefällt mir der Kritische Posthumanismus (KP) schon doch noch am meisten. Allerdings: Ich finde, dass KP bzw. der Weg dorthin noch eine ordentliche Lücke enthält. Er entsteht irgendwie wie so wie Kai aus der Kiste. Wie alle -Ismen benötigt doch auch KP Etwasse, die die Ansicht tragen. Wo kommen die her? Woher kennst du bereits jetzt ihre Ansichten? Wieso lehnt sich die Bewegung an den Posthumanismus an und schließt gewissermaßen den Transhumanismus bereits aus?
Diese Nachricht enthält vertrauliche Informationen.


Bitte Anmelden oder Registrieren um der Konversation beizutreten.


"Künstliche Intelligenz", Tranhumanismus und Big Data 17 Mär 2019 15:48 #49879

D.Rajic schrieb:
Ich finde, dass KP bzw. der Weg dorthin noch eine ordentliche Lücke enthält. Er entsteht irgendwie wie so wie Kai aus der Kiste. Wie alle -Ismen benötigt doch auch KP Etwasse, die die Ansicht tragen. Wo kommen die her? Woher kennst du bereits jetzt ihre Ansichten? Wieso lehnt sich die Bewegung an den Posthumanismus an und schließt gewissermaßen den Transhumanismus bereits aus?
Diese Nachricht enthält vertrauliche Informationen.

Lieber D., freut mich, dass du meinen Beitrag gelesen und kritisch siehst.
Nun, wie ich selber anmerkte, sind die Aussagen dort meine subjektiven Einschätzungen. Zudem ist es ohnehin schwierig, die einzelnen Strömungen abzugrenzen, da die Grenzen fließend sind. Sicher würden auch viele Vertreter des KPh es strikt ablehnen, die transhumanistischen Bestrebungen, wie ich sie definiert habe, gut zu heißen (manche nennen die Vertreter einer solchen Richtung "Terraner"). Gerade meine Sicht auf den KPh ist eine sehr freie Interpretation und muss sich nicht immer mit den Anschauungen ihrer Vertreter decken.
Intellektuelle Vertreter bzw. Vorreiter des KPh wären: Katherine Hayles, Rosi Braidotti und Cary Wolfe. Man könnte den KPh auch als eine strenge Konsequenz oder Form des Poststrukturalismus sehen, dem mit Bezügen zu Michel Foucault oder auch Jacques Derrida an einer Weiterentwicklung, wenn nicht gar Überwindung klassischer humanistischer Vorstellungen des Menschenbildes gelegen ist und der sich nicht scheut, zentrale Paradigmen westlichen Denkens infrage zu stellen, die ihren leidlichen Ursprung in anthropozentrischen Positionen des Christentums haben und somit mit als eine Quelle und Ursache des Leides vieler Entwicklungen des Abendlandes in den letzten 2000 Jahren gedeutet werden können.
Meine Kategorisierung des Transhumanismus, Technologischen Posthumanismus (radiale und anthropomorphe Form) und Kritischen Posthumanismus habe ich in erster Linie dem Buch von Dr. Janina Loh (tätig in Wien an der Uni im Bereich Technik- und Medienphilosophie) "Transhumanismus und Posthumanismus" entnommen.
Anbei ein Link, im dem Fr. Dr. Loh kurz und knapp die einzelnen Strömungen beschreibt und eine Einteilung vornimmt:
www.philosophie.ch/philosophie/highlight...scher-posthumanismus

Kai aus der Kiste kannte ich nicht. Tja, eine ganz neue Menschheit müsste wohl aus der Kiste auftauchen, die die Vorstellungen des KPh in ihrer Lebenswelt konkretisiert, um die Kurve beim Klimawandel noch zu bekommen. :ohmy:
Versteckter Inhalt oder OFF-Topic [ Zum Anzeigen klicken ]

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

"Künstliche Intelligenz", Tranhumanismus und Big Data 17 Mär 2019 18:49 #49884

Aus persönlichen Gründen beschäftige ich mich derzeit auch mit dieser Thematik.
Nebenbei versuche ich programmieren zu lernen, denn das Endziel meines Interesses an dem Thema soll eine k.I. für den Bereich Kommunikation und optimiertes Lernen sein.
Schon jetzt fallen mir fast unerschöpfliche Anwendungsbereiche ein.

Zuvor eine gute arte Doku, die verschafft einen recht guten Überblick über das, was möglich wäre:
(Das Rätsel des künstlichen Hirns (2017) Konnektom, künstliche Intelligenz)
Ein Video zur Definition was eine k.I. eigentlich ist:
(Wie intelligent ist Künstliche Intelligenz?)

Wer sich hier genauer informieren will, wie man eigentlich testet ob eine k.I. nun Intelligent ist: de.wikipedia.org/wiki/Turing-Test
Natürlich kann man sich über die Bedeutung von "Intelligenz" streiten, hier wird aber dieser Test als Bewertung herangezogen.

1) Anwendungsgebiet kompaktes Wissen und Analysen erstellen und abgleichen.

Als Erstes sind hier k.I.´s zu nennen die im medizinischen Bereich eingesetzt werden können, vorstellbar sind aber alle erdenklichen Fachbereiche die auf komplexen Datenstrukturen beruhen wie: Jura, Steuerrecht, Börsenhandel und Investment, Statistikerhebung im allgemeinen, Datensätze abgleichen, Analysen im allgemeinen, Psychologie, Bildung und lernen etc.

Von der Datenerhebung und von Gesundheitswertung z.B. mittels eines Chips oder eines Fitnessarbands, bis zur Symptomanalyse und dem Abgleich mit allen bereits vorhanden Werten, auch aus der Familie; ist das Potenzial geradezu gigantisch.
Laborwerte könnten direkt verarbeitet werden, Wahrscheinlichkeiten könnten errechnet werden und das alles immer abgeglichen mit dem neusten Stand in Forschung und Technik. Das ist zu mindest als Vorarbeit für Ärtzte ein riesen Zeitgewinn.

Interessante Artikel:
www.dw.com/de/ki-in-der-medizin-der-comp...dir-fehlt/a-46210336
www.spektrum.de/news/kuenstliche-intelli...-der-medizin/1533475
www.spektrum.de/news/lange-gesund-leben-dank-ki/1585018
www.sueddeutsche.de/gesundheit/ki-kuenst...nz-medizin-1.4326650

Hier sind ein paar gute Vorträge:
(Bessere Medizin dank Machine Learning und künstlicher Intelligenz (KI) l Dr. Marco Schmidt)
(Blick in die Labore - Künstliche Intelligenz in der Medienanalyse, Medizin, Robotik und Produktion)


Auch im Bereich der Psychotherapie wird bereits geforscht und es gibt sogar schon einige Modelle:
www.aerztezeitung.de/medizin/krankheiten...ychotherapeuten.html
chatbotslife.com/therapy-chatbots-are-tr...36bc?gi=ba51124d17d8

Hier ist eine englisch sprachige therapeutische k.I.: woebot.io/
(Habe sie noch nicht ausprobiert.)

2) humanoide Roboter im Bereich Service und Unterricht.

Hier liegt der Fokus nicht umbedingt auf einer optimierten Leistung zu den Grundfähigkeiten des Menschen, sondern darum zeitliche Freiräume zu schaffen indem man organisatorische Aufgaben an eine k.I. abgibt.
Auch hierzu laufen bereits Experimente und teilweise ist im Bereich Service die Technik schon recht weit.

Hier ein paar gute Videos:
(Deutschland: Wenn Roboter unterrichten | Reporter)
(AI meets CX: Wie beeinflusst Künstliche Intelligenz die Service Erlebnisse Ihrer Kunden)

3) neuronale Netzwerke:
Die Grundlage für die meisten k.I.´s, sind künstliche neuronale Netzwerke.
Jedes dieser Netzwerke kann jede Art von Analyse, Berechnung oder Problemlösung nach genug Training und richtiger Programmierung, in den meisten Fällen, schneller und genauer lösen als ein Mensch.
Will man also das eigentliche Potenzial hinter k.I.´s verstehen, müss man wissen wie sie arbeiten.

Hier ist eine recht gute Einführung die nicht studenlang geht:
(Wie funktionieren künstliche neuronale Netze | Was ist ...?)

Potential von neuronalen Netzwerke:
(Neuronale Netze, die hacken können - meine Masterarbeit)
www.spektrum.de/video/im-kopf-von-kuenst...nalen-netzen/1586616
Ein recht gutes Paper: page.mi.fu-berlin.de/rojas/pub/neuronaleNetze_1994.pdf
www.alexanderthamm.com/de/artikel/wie-ku...lernen-ermoeglichen/



x) Zweifelhafte Projekte zum Thema k.I. und Deep learning:



Interessante Artikel:
www.spektrum.de/news/emotionen-kriminali...esicht-lesen/1629144

(Ich werden den Beitrag aktualisieren, damit ich einmal eine Gesamtübersicht wiedergeben kann, womit ich mich derzeit beschäftige. Aus zeitgründen kann ich das aber nicht an einem Stück machen.)

Hypothese: Hoffnung ist, etwas zu 51% nicht genau wissen zu können, Glaube ist die Überzeugung 1% Unwissenheit hätten einen Sinn.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Hypothese: Hoffnung ist, etwas zu 51% nicht genau wissen zu können, Glaube ist die Überzeugung 1% Unwissenheit hätten einen Sinn.

"Künstliche Intelligenz", Tranhumanismus und Big Data 17 Mär 2019 19:36 #49889

  • Philzer
  • Philzers Avatar
  • Offline
  • Gold Boarder
  • Gold Boarder
  • 4D versus 3D
  • Beiträge: 649
  • Dank erhalten: 58
Senkung der Kosten

Hi,

Martin-O schrieb: Was ich kaum gefunden habe, ist, wozu man das braucht. Eine kommerziell mögliche Verwendung scheint es mir, Models zu ersetzen und in der Werbung „natürliche“ Bilder von Menschen zu verwenden.


Dass es nur Kommerz ist, da liegst Du ja schonmal richtig.
Das ist ja was die meisten der Spezies nicht verstehen, sie sollen ersetzt werden.

Ich würde nicht nur an Models denken, sondern bspw. an Schauspieler.
Wenn es gelingt die preiswert zu ersetzen, kann die Filmindustrie ihre Gewinne drastisch erhöhen ....
(die Idee dazu gibt es schon lange, mal sehen wann sie realisierbar wird ... )

Ansonsten, um Klarheit in diesem Thread zu schaffen, stimme ich dem Post von Thomas zu.
Analytisch herangehen.


mvg Philzer

Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer

"Künstliche Intelligenz", Tranhumanismus und Big Data 18 Mär 2019 02:23 #49893

@ Cyborg #49850
Danke für die Zusammenstellung. Was eine Entität ist – da wird man wohl schwer zueinander kommen, so hast Du aber schon klar gemacht, worüber wir hier reden.
Natürlich habe ich da ein paar Rückfragen:
Beim Bewusstsein betonst Du die emotionale Seite und die Qualia. Es beinhaltet aber auch das Denken (con-scienta), bis hin zum Selbst-Bewusstsein, das ständige Hintergrundrauschen des „Ich bin da“. Da scheint mir eine klare Abgrenzung zur Intelligenz nicht möglich, denn zum Problemlösen gehört ein Problembewusstsein. Natürlich sind Begriffe wie Intelligenz und Bewusstsein sinnvoll, um Dinge differenziert darzustellen. Aber das heißt noch lange nicht, dass da zwei ontologisch verschiedene Dinge existieren. Mit diesen Begriffen beschreiben wir Fähigkeiten von Entitäten. Unabhängig von Entitäten macht es deshalb m. E. überhaupt keinen Sinn, von Intelligenz und Bewusstsein zu reden.
Versteckter Inhalt oder OFF-Topic [ Zum Anzeigen klicken ]
Intelligenz, Bewusstsein und anders als eigenständige Größen zu betrachten, ist eine Verleugnung des Menschseins (und mehr als das, denn diese „Dinge“ haben wir Menschen ja nicht allein für uns gepachtet).
Dann diese künstlich erzeugten Wesen mit einem Baukastensystem neu zusammen zu basteln, ist für mich ein sprachlicher Taschenspielertrick (i. S. von Selbstbetrug, ich will keine bösen Absichten unterstellen).
Leben ist vielfältig, die Ausprägungen der Fähigkeiten und Lebensäußerungen ist sehr unterschiedlich. So ist die Gefühlswelt inklusive Empathie bei Asperger Autisten kaum vorhanden. Darauf stützt sich ein „Baukastensystem“. Aber doch fühlt kaum jemand so stark mit den nächsten Generationen mit wie Greta Thunberg. Unsere Einteilungen gehen eventuell an der Sache vorbei. Wir sind – bei allen analytischen Erkenntnissen, die ich damit nicht negieren will - eine psychosomatisch-pneumatische Einheit. Die Mediziner kommen immer mehr dahin.
So schrumpfen für mich Deine Möglichkeiten A-E auf die Frage zusammen, ob es harte KI gibt oder nicht.

Nach Markus Gabriel (dem ich mich anschließe) hat KI keine Probleme, sondern nur Nullen und Einsen, kann also auch keine Probleme lösen. Du setzt aber als gegeben voraus, dass sie Probleme lösen, das Ergebnis schmuggelst Du so unbemerkt hinein.

Interessant ist für mich die Intention von allen Spielarten des Transhumanismus. Leidreduktion.
Versteckter Inhalt oder OFF-Topic [ Zum Anzeigen klicken ]

Postbiologische Entitäten, die weniger Leid haben, haben dies wohl nur dadurch, dass sie im Qualiabereich unterbelichtet sind, ja dass sie nicht an ihrem Sein als Entität anhangen, weil sie nämlich keine sind. Und da (s. o.) Intelligenz und Bewusstsein an einer Entität hängen …
Wir haben heute nicht mehr so stark die Art von Leiden, die es früher gab. Aber ob wir heute weniger leiden als die Menschen vor 10.000 Jahren, das ist nicht sagbar.
Wir haben mehr Möglichkeiten, ja, aber eben auch furchtbare Waffensysteme, gesteigerte Überwachung und Manipulation und perfektere Zernutzung der Welt.
Technik ist weder böse noch ein Heiland.
Transhumanismus in jeder Form jagt etwas nach, dem man wohl auch nicht ansatzweise sich annähern kann.
Zudem geht die Zielrichtung des Transhumanismus am Menschsein vorbei. Menschen sind eine Entelechie, es geht um Selbstverwirklichung, nicht um eine jemand-anders-sein-Verwirklichung. Ja noch mehr, es geht um das Überschreiten des Selbst als Verlust des egozentrischem Selbst, also das Gegenteil von seiner Steigerung bzw. Selbstüberschreitung im Sinne des Übermenschen von Nietzsche.
Fazit: Die Sinnhafigkeit von Transhumanismus ist nicht gegeben, Menschsein wird vertan unter Verbrauch vieler Ressourcen.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

"Künstliche Intelligenz", Tranhumanismus und Big Data 19 Mär 2019 00:07 #49960

@ Sirius
Danke für das Kaleidoskop an videos und links.
Zum künstlichen Hirn – mein Fazit des Videos: Kaum ein Forscher hält das jemals für möglich, einige, die glauben, dass Gehirne Maschinen sind, aber schon.
Jetzige Erfolge sind doch überschaubar: zB: Dass es Phantomschmerzen gibt, ist keine neue Erkenntnis, dass ein gegenteiliger Effekt (spüren eines Exo-Skelettes) möglich ist, ist nun nicht so ganz überraschend. Dass man weiß, welche bestimmten Gehirnbereiche aktiv sind, ist noch kein Gedankenlesen.
Mehrfach wird ein Zeitraum von 50-100 Jahren genannt. Bis dahin haben die Folgen der Ökokrise die Wohlstandsblase platzen lassen, die die Grundlage sind für solche Entwicklungen.
Warum will man ewig leben? Menschen, die gestorben sind, sollen getrost der allmählichen Vergessenheit ausgesetzt werden. Abgesehen davon, dass Maschinen Strom und Wartung brauchen und keineswegs ewig existieren. Wenn einmal die Daten durch einen Krieg zerstört wurden (was realistische ist), ist die Ewigkeit vorbei. Ich finde es egozentrisch und pervers, wenn jemand sein Gehirn mit viel Energie einfrieren lässt für so einen Irrsinn.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2

"Künstliche Intelligenz", Tranhumanismus und Big Data 19 Mär 2019 14:05 #49984

@ Martin-O
Bei dem technischen Gehirn geht es nicht so sehr um eine roboterähnliche Nachbildung, sondern eher um eine Simulation von clusterbasierenden mathematischen "Neuronen", wenn ich das richtig verstanden habe.
Der Zweck ist also nicht umbedingt das menschliche Gehirn besser zu verstehen, sondern das Wissen wie ein menschliches Gehirn funktioniert, ist eher die Voraussetzung für eine gelungene Simulation.
Die wird aber vermutlich nie zu 100% identisch sein mit der Arbeitsweise eines biologischen Gehirns; da dieses ja nicht nur mit elektromagnetischen Impulsen arbeitet, sondern vorallem auch mit biochemischen.

Warum manche Menschen ewig leben wollen kann ich auch nicht verstehen. Selbst wenn eine Krankheit nach 100-200 Jahren endlich heilbar wäre; du bist in einer völlig neuen Zeit, kennst niemanden und musst vermutlich ganz grundlegende Dinge erneut lernen. Wir sprechen hier also nicht von einer sofortigen hohen Lebensquallität und das ggf. nur um noch 10-20 Jahre leben zu können.
Klingt für mich genauso wie eine Horrorvorstellung wie das hochladen der Persönlichkeit.

Das sind aber alles "Teilbereiche" die mit k.I.´s möglich wären, deswegen habe ich das Video gepostet. Die Anstrengungen ewig zu leben, sind vermutlich älter als jede Technik und so ist es nicht verwunderlich das Menschen mit viel Geld dem nachstreben.
Inwieweit das letzendlich möglich ist, bleibt abzuwarten.
Selbst der Upload in einen Robotor wäre, meiner Einschätzung nach, nichts weiter als eine Art momentanes Abbild der Persönlichkeit zu einem Zeitpunkt. Der Transfer vom eigentlichen bewusstsein scheint mir hingegen fast unmöglich.

Hypothese: Hoffnung ist, etwas zu 51% nicht genau wissen zu können, Glaube ist die Überzeugung 1% Unwissenheit hätten einen Sinn.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Hypothese: Hoffnung ist, etwas zu 51% nicht genau wissen zu können, Glaube ist die Überzeugung 1% Unwissenheit hätten einen Sinn.

"Künstliche Intelligenz", Tranhumanismus und Big Data 19 Mär 2019 17:35 #50004

Martin-O,
ich werde auf deine letzten Posts noch näher eingehen, event. Wochenende, aber vorab:
In der Märzausgabe von Cicero ist ein Interview bzw. Streitgespräch zwischen Markus Gabriel und Stefan Lorenz Sorgner (er war auch schon mal im PhiloRadio WDR5; apropos die letze Sendung vom Fr., danke für den Hinweis, bin aber noch nicht dazu gekommen).

„Der Übermensch ist unsere Hoffnung.“, so der Aufhänger.

Sorgner meint, Transhumanisten seien in erster Linie Naturalisten und nur selten Christen. Allerdings lehrt in Bochum ein kath. Juniorprofessor, der sich als Transhumanist versteht: Benedikt Paul Göcke.

Ich kenne diesen Göcke nicht, aber er scheint beides unter einen gemeinsamen gedanklichen Hut zu bringen. Das freut mich, weil es also auch möglich ist, eben immer nur eine Sache der Intepretation und Auslegung und wohl der Brille, die wir alle aufhaben....ohne es zu merken, so wirklich, denn erahnen tun wir sie ja
Außerdem gäbe es unter Transhumanisten auch viele Buddhisten und einige Mormonen.

Eine Randbemerkung von Gabriel fand ich interessant, gerade auch in Bezug auf den Klima-Thread hier:
Versteckter Inhalt oder OFF-Topic [ Zum Anzeigen klicken ]


Übringes erscheint jetzt von Sorgner ein neues Buch:

„Übermensch. Plädoyer für einen Nietzscheanischen Transhumanismus“

@Sirius, danke für die interessanten Links!

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
  • Seite:
  • 1
  • 2
  • 3
AUF Zug
Powered by Kunena Forum