So einfach ist das nicht (Freie Themen)

Isana Yashiro, Samstag, 09.10.2021, 09:01 (vor 929 Tagen) @ Pat (1036 Aufrufe)

Hallo!

Nebst Spenglers Ausführungen zu den Fellachen, ist mir nicht bekannt, was er selber sonst Konkretes zu (weiteren) historischen und evolutiven Entwicklungen vorausgesehen hat.

Statt einer notwendigen Tatsache, scheint Musks gechipter Affe eher eine unberechenbare Tatsache zu sein, da dieses Experiment – mit künstlicher Intelligenz einhergehend – langfristig kaum absehbare Konsequenzen einleitet:

<"Konkret ist in dem etwa drei Minuten langen Video ein neun Jahre alter Makake zu sehen, der auf den Namen Pager hört. In seinem Gehirn befinden sich […] zwei Neuralink-Chips. Es wird gezeigt, wie der Affe zunächst die Steuerung des Spiels mit einem Joystick erlernt und dabei Belohnungen erhält, indem er immer einen Schluck von einem Bananen-Smoothie nehmen darf. Auf diese Weise erlernen die Neuralink-Geräte, welche Gehirnregionen beim Affen bei der Steuerung des Spiels aktiv werden. Nachdem der Joystick dann vom Spiel getrennt wird, kann Pager das Spiel auch direkt über seine Gedanken steuern.">

(Quelle)

Die Konsequenzen sind so gut vorhersehbar, daß sie sogar jetzt schon bekannt sind. Das aufgrund des Fellachentums.

Wie Musk auf Twitter schreibt, soll Neuralink als nächstes Menschen mit Lähmungen helfen:

"Ein erstes @Neuralink Produkt wird es Menschen mit Lähmungen ermöglichen, ein Smartphone mit ihrem Verstand schneller zu bedienen als jemand, der die Daumen benutzt."


Neuralink garantiert bereits jetzt die Cybersicherheit:

"We understand that medical devices need to be secure, and it takes serious engineering to prevent unwanted access to such devices. Security will be built into every layer of the product, using strong cryptography, defensive engineering, and extensive security auditing." (Quelle)

Zum Stand und Zustand der IT-Sicherheit ist der Blog von Hadmut Danisch sehr zu empfehlen. Hadmut Danisch hat Jahrzehnte Erfahrung als professionelle Fachkraft für IT-Sicherheit. Leider wird sein Blog von Suchmaschinen weitgehend ignoriert und die Suchfunktion auf dem Blog selbst arbeitet auch nicht so wie man sich das wünscht. Man muß daher eine Weile mitlesen, dann bekommt man mit, daß schon ganz elementare Fragen die IT-Sicherheit betreffend nicht mehr verstanden werden. Er hat schon ganz ernsthaft einen Anruf bekommen, in dem er gefragt wurde: „Hier ist Feueralarm! Was soll ich machen?“ Nur noch übertroffen von dem Typen der ihn fragte, ob man den Feueralarm nicht leiser drehen könne, denn man kann nicht arbeiten bei dem Krach. Den Kontakt zu diesen Leuten bekam er, weil er sie in IT-Sicherheit schulen sollte. Dabei stellten sie sich natürlich nicht klüger an. Hadmut Danisch erklärte auch mal den Zusammenhang zwischen Brandschutz und IT-Sicherheit. Leider verhindert das Shadow Banning spontan (oder überhaupt) die gewünschten Artikel zu finden. Es gibt auf dem Blog einiges zur Unbeherrschbarkeit neuer Technologien im Allgemeinen und der Sicherheit im Besonderen.

Selbstverständlich wird diese Technologie auch gesunden Menschen zur Verfügung stehen (z.B. um Musik ins Gehirn streamen zu lassen):

"We expect that as our devices continue scale, and as we learn to communicate with more areas of the brain, we will discover new, non-medical applications for our BMIs. Neuralink's long-term vision is to create BMIs that are sufficiently safe and powerful that healthy individuals would want to have them." (Quelle)


=> Kreisch [!]: mRNA-Corona-Impfung, die eine medizinische Nanotechnologie enthält (Quelle), ist noch gar nichts; es ist durchaus möglich, dass eine nächste Generation – in nicht allzu ferner Zukunft – mit dem Gehirn-Chip beglückt wird!

Einige sind sicherlich dumm genug, das mitzumachen. Schließlich gibt es schon Leute, die nicht mehr verstehen, daß sie bei Feueralarm das betreffende Gebäude verlassen sollten.

Musks allgemeine Warnung: Künstliche Intelligenz könnte sich schneller entwickeln, als der Mensch fähig ist, Sicherheitsmassnahmen einzuleiten. Und Hawkings Bemerkung: "Künstliche Intelligenz könnte einen eigenen Willen entwickeln", warnte er und fügte hinzu: "Die Entwicklung Künstlicher Intelligenz könnte entweder das Schlimmste oder das Beste sein, was den Menschen passiert ist. (Quelle)"

Musk hat damit halbwegs Recht. Die Menschen verblöden zusehends. Daher werden sie keine Sicherheitsmaßnahmen einleiten können. Aber genau die wollte Musk doch garantieren?

Mit der Annahme, daß sich künstliche Intelligenz schnell entwickle, hat er dagegen nicht Recht. Es gibt noch garkeine künstliche Intelligenz. So schnell entwickelt die sich. Selbstverständlich kann sie darum auch keinen eigenen Willen entwickeln. Hawkings Bemerkung ist eine wirklich knalledumme. Künstliche Intelligenz würde man ausschließlich an deren eigenem Willen erkennen können. Was Neuralink mit künstlicher Intelligenz zu tun haben soll, das bleibt Dein Geheimnis.

Was allerdings Kurzweils Transhumanismus betrifft: Auf seine religiös anmutende Heils-Prophezeiung, wonach 2045 die Singularität eintrete, sei ein quellenkritischer Blick empfohlen.

Die mutet nicht grundlos religiös an. Auch Atheismus und Materialismus sind religiöse Weltanschauungen. Diese als Grundlage zu nehmen, um daraus wissenschaftliche Theorien und technische Entwicklungen abzuleiten, ist jedoch eine haarsträubend hanbüchene Idee. Ich kann mich für Roboter schon begeistern. Aber der Theorie, daß der Mensch nur aus seinem Körper bestehe, dieser wie eine Maschine funktionere, deren Teile austauschbar sind und der Mensch nur daran sterbe, daß sein Körper nicht mehr ausreichend funktioniere, kann ich nicht folgen. Diese Theorie ist einfach nur Blödsinn. Deshalb wird es 2045 keine technologische Singularität geben.

Das ist nicht anders wie die früheren Vorhersagen früherer Futurologen. Die hatten noch niemals richtig gelegen.

Aber aus den geschichtlichen Zyklen kann man ableiten, daß das technische Verständnis schwindet. Deshalb kann es in Zukunft nur einfachere Technologie und immer weniger Maschinen geben.

Gruß,
Shiro


Gesamter Strang: