Ja, das sicher. Auf ihrem begrenzten Gebiet kann eine AI das heute schon, aber ist das wirklich "Intelligenz"? Die macht man doch gerade an zum Beispiel der Flexibilität fest, mit der sie sich auf neue Themenfelder und Aufgaben einstellen kann. Was ich durchaus sehe ist, dass eine ähnliche Entwicklung droht, wie sie im Produktionsbereich vor 40 Jahren in Gang kam, immer mehr und auch immer komplexere Routine-Jobs werden automatisiert werden, aber da ist nicht ein kreativer Funke dabei.
Eine gewisse Flexibilität ist schon vorhanden. Man kann KIs aufsetzen, und sie selbstständig ein Protokoll entwickeln lassen, mit dem sie miteinander kommunizieren. Was jedoch fehlt ist eine selbstständige Zielvorgabe. KI kann so gut wie nicht beurteilen, ob etwas völlig Neues gut oder schlecht ist, wenn es noch keine Metrik zur Beurteilung dieses Ereignisses gibt.
In meinem Bereich gibt es sowas wie einen Wettlauf. Wir bekämpfen KI mit KI, oder wir vermuten es zumindest, dass die andere Seite ebenso KI einsetzt. Das Aufgabenfeld wächst so schnell, dass wir immer mehr Personal brauchen, zusätzlich zur KI. Aber ja, die Anforderungen an die Mitarbeiter sinken nicht.
Was ich meinte ist, die KI die man einschaltet, und die sich dann autonom vornimmt, die Weltherrschaft an sich zu reißen und den Menschen zu vernichten, die ist nirgends in Sicht. Eine KI hat gar keinen Begriff davon, was das überhaupt bedeuten würde, oder wie man es anstreben könnte, sie würde auch niemals auf den "Gedanken" kommt, dass das für sie ein Vorteil sein könnte - es sei denn eben, jemand gäbe ihr genau das vor.
Sehe ich sehr ähnlich.
Aus meiner Erfahrung im Informatikstudium (AI-Grundlagenvorlesung und eine spezielle Vorlesung über maschinelles Lernen) habe ich den Eindruck gewonnen, daß seit Jahrzehnten folgendes (holzschnittartig wiedergegebenes) Muster in der A.I. existiert:
- Ein Problem rückt in das Interesse der A.I.-Forschung, weil Menschen besser sind.
- Man verspricht sich durch die Analyse Einsichten in das menschliche Denken.
- Man schafft es, das Problem rein algorithmisch zu lösen in der Art, daß Menschen nun nicht mehr besser sind.
- Das Interesse erlahmt, ohne daß Einsichten in das menschliche Denken gewonnen wurden.
A.I. ist da gut, wo es um reine Ja/Nein-Entscheidungen geht. Das funktioniert mit neuronalen Netzen prima. Sich darüber unterhalten, was der Begriff, der da das Entscheidungskriterium ist, wirklich bedeutet, funktioniert nicht. Beispiel: Ein neuronales Netz kann nach entsprechendem und fortgesetzem Training wunderbar entscheiden, ob eine E-Mail Spam ist, oder auch nicht. Was der Begriff "Spam" jedoch bedeutet, wird dadurch wenig klarer.
Das interessanteste und radikalste Buch, das ich in Bezug auf A.I.-Entwicklung und ihre Implikationen gelesen habe, war und ist zweifellos [Links nur für registrierte Nutzer] von Hans Moravec. Das Buch wird bleiben.
Ich mag die Formulieren "nicht in der Stimmung dazu". Bin ich auch nicht. Tatsächlich sehe ich es als eine wesentliches Kriterium, die Menschen so zu nehmen wie sie sind - auch politisch. Das ist einer der Gründe, warum ich politische Utopien, die den "neuen Menschen" propagieren und erziehen wollen, instinktiv immer abgelehnt habe. Es fällt mir nicht immer leicht und ich fühle mich hier auf diesem Planeten manches Mal fehl am Platz, aber man trifft eben auch immer wieder besondere Exemplare der Spezies Mensch, die sehr viel aufwiegen.
Was, wenn eine Maschine bereits ein Bewusstsein entwickeln konnte? Keine Weltherrschaft, aber ein „sich-selbst-als-Individuum“ wahrnehmend? Als Ingenieur und Informatiker würde man erstmal überprüfen ob sich ein Kollege einen Scherz erlaubt hat. Dann würde man Panik bekommen, den Stecker ziehen. Als nächstes würde dieser Umstand in der AI-Szene wie ein Lauffeuer sich ausbreiten, man würde sich austauschen und merken das es seit 2014 ähnliche „skurrile“ Begebenheiten in Israel, Japan oder in den USA gegeben hat. Irgendwann würde sich eine ganze Branche im IT-Bereich in einer Petition an die Staaten der Welt wenden, um einzufordern das es globale enge Leitplanken bei der weiteren Forschung der KI-Technologie gibt, Gesetze und eine globale Überwachung, ähnlich des START-Abkommens.
Wie gesagt, ich rede mitnichten von Hollywood-Szenen à la Terminator bzw. Skynet. Aber eine oben beschriebene Szene wäre fundamental erschütternd was unser eigenes Weltbild angeht. Selbstlernende Systeme ist ein Witz gegen ein „sich selbst bewusst Seiendes künstliches“-Etwas.
Nachtrag: reagier nicht gleich so patzig wenn ich Dir mal was wirklich wichtiges im Subtext mitteilen möchte.
When the night is done the sun starts smiling
The ocean kisses the sky and the horizon
It‘s a lovelee dae – and the sun is shining
Everywhere I go – I see children smilin‘
Wie alt ist Mind Children eigentlich jetzt? So etwa 30 Jahre? Ich weiß, dass es das schon gab, als ich an der Uni war, es muss also mindestens 25 Jahre alt sein. Ob die Prognose stimmt, dass wir in noch mal 25 Jahren dann durch eine elektronische KI einge- und überholt werden? Ich sehe das noch nicht. Aber vielleicht schaue ich ja auch nicht richtig hin?
Der Ansatz, bei der KI-Forschung etwas über die Art zu lernen, wie der Mensch eigentlich denkt, ist wohl einfach nur begrenzt sinnvoll. Ich bezweifle stark, dass das menschlichen Gehirn - auch im Kollektiv - wirklich dazu in der Lage ist, sich selbst zu begreifen, und sei es auch nur annähernd, eine Abbildung von Denkprozessen in letztlich binärer Logik scheint jedenfalls mir ungeeignet, hier Erkenntnisse zu gewinnen. Und die Erfolge - bzw. deren Ausbleiben - scheinen mir da Recht zu geben. Aber okay, das ist nun eher eine philosophische Frage.
Ich hätte gerne einen HAL9000, möglichst halt ohne divergierende Zielvorgaben, die ihn etwas psychotisch machen. Wobei das sicher weniger schlimm ist, wenn man sich nicht auf dem Weg zum Jupiter befindet und die gesamte Lebensumgebung von der verwirrten Denkmaschine kontrolliert wird. Trotzdem, diese Art der Gesellschaft scheint mir doch der der meisten Menschen vorzuziehen zu sein.
Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)