FB18 - Das Forum für Informatik

fb18.de / Off-Topic / Allgemeines

Meinungsbild zu starker KI

Meinungsbild zu starker KI 2007-01-16 16:46
MIN-Vertreter
Wie siehen aktuell bei euch Informatik-Studis die Meinungen bez. der Realisierbarkeit starker KI aus? Gibt es zufällig welche hier, die sich näher mit dem Thema beschäftigen? Würde mich echt interessieren.

Re: Meinungsbild zu starker KI 2007-01-16 16:57
garou
Wie siehen aktuell bei euch Informatik-Studis die Meinungen bez. der Realisierbarkeit starker KI aus?
Das hängt ganz davon ab, was du als starke KI bezeichnest. Wenn du Expertensysteme meinst, die stark darin sind, auf einem Gebiet hilfreich zu sein, das gibt es schon. KIs, mit denen man natürlichsprachlich interagieren kann, sind in der Erforschung, Theorie gibt es jede Menge, aber wenn du etwas meinst, was sich nicht signifikant von einem menschlichen Geist unterscheidet, würde ich nochmal 50 Jahre warten wollen und gucken, ob man dann schon etwas definitiveres sagen kann.

Update: Nevermind, Marrow hat mich gerade aufgeklärt, daß Künstliche_Intelligenz schon definiert ist. Uff… Soll's wirklich das richtige Ding sein oder nur so aussehen? AGIRI arbeitet an etwas ähnlichem, dort irgendwo habe ich auch ein Transskript gesehen, wie jemand via KI natürlichsprachliche Datenbankanfragen macht.

Re: Meinungsbild zu starker KI 2007-01-16 18:37
MIN-Vertreter
Wie siehen aktuell bei euch Informatik-Studis die Meinungen bez. der Realisierbarkeit starker KI aus?
Das hängt ganz davon ab, was du als starke KI bezeichnest. Wenn du Expertensysteme meinst, die stark darin sind, auf einem Gebiet hilfreich zu sein, das gibt es schon. KIs, mit denen man natürlichsprachlich interagieren kann, sind in der Erforschung, Theorie gibt es jede Menge, aber wenn du etwas meinst, was sich nicht signifikant von einem menschlichen Geist unterscheidet, würde ich nochmal 50 Jahre warten wollen und gucken, ob man dann schon etwas definitiveres sagen kann.

Update: Nevermind, Marrow hat mich gerade aufgeklärt, daß Künstliche_Intelligenz schon definiert ist. Uff… Soll's wirklich das richtige Ding sein oder nur so aussehen? AGIRI arbeitet an etwas ähnlichem, dort irgendwo habe ich auch ein Transskript gesehen, wie jemand via KI natürlichsprachliche Datenbankanfragen macht.
Jup, es geht um das "richtige Ding". [img]http://www.fb18.de/gfx/25.gif[/img]
Mein Wissensstand war, dass es bisher umstritten ist, ob es überhaupt möglich ist eine KI zu entwickeln, welche über ein Kreativität und Selbstbewusstsein verfügt. Und speziell zu dieser Streitfrage wollte ich das Meinungsbild der Informatiker hören. [img]http://www.fb18.de/gfx/25.gif[/img]
Die AGIRI-Seite schaue ich mir auf jeden Fall an, die arbeiten ja daran. Danke für den Tipp.

Re: Meinungsbild zu starker KI 2007-01-16 19:43
Wolf
Kreativität und Selbstbewusstsein sind nicht das Kriterium für Intelligenz. Intelligenz ist das Vermögen des Erkennens von Zusammenhängen, der Treibstoff zum Lösen von Problemen, das Anwenden von Wissen, sowas. Was Du meinst, geht darüber hinaus, hängt eher mit der Frage "Können Maschinen denken?" zusammen. Denken ist mehr als Intelligenz.
Es ist durchaus umstritten, ob es möglich ist, eine symbolische künstliche Intelligenz zu entwickeln, die denkt.
Alan Turing hat darüber in den 50ern geschrieben, seine Argumente sind immer noch gültig.

Edit: Über Alan Turings Aufsatz 'Können Machinen denken?' habe ich mal referiert. Hier ist die Präsentation, sie sollte Dir einen Überblick verschaffen, was Turings Argumente sind: PDF (~1MB)

Re: Meinungsbild zu starker KI 2007-01-17 00:17
garou
Ich hätte da mal eine ketzerische Frage… Warum muß die künstliche Intelligenz eigentlich eine menschliche Intelligenz sein, um intelligent zu sein? Wenn man zum Beispiel Kreativität als das Ergebnis einer relevanten Verknüpfung von Wissen betrachtet, wäre eine KI, die im Hintergrund permanent Schlüsse über ihre Ontologie erzeugt, kreativ. Wenn man Emotionen als Komposition mentaler Vorgänge betrachtet, dann hat eine KI mit einem Emotionsvektor auch Emotionen, auch wenn sie aus Zahlen bestehen, beziehungsweise daraus resultierend auch aus einer Veränderung in den Denkprozessen der KI.
Also, welchen Maßstab legen wir an? (Und wenn jemand "menschlich" benutzt, darf er das Wort erstmal definieren. :p)

Re: Meinungsbild zu starker KI 2007-01-17 02:18
Wolf
Wir legen den Maßstab an, der aus unseren Beobachtungen und Erfahrungen folgen kann. Eine andere Intelligenz zu definieren als die, die wir intuitiv als solche begreifen (die menschliche), ist uns bisher verwehrt geblieben, soweit ich weiß.
Das führt natürlich zu großen Schwierigkeiten, mitunter zu der, Intelligenz allgemeingültig zu beschreiben, also nicht relativ zu unserem Blickpunkt. Aber das Problem ist dem Prinzip der Beschreibung an sich anheim.

Das ist mit ein Grund, warum ich Stanislaw Lem so toll finde. Er thematisiert(e) genau das, indem er in diversen Geschichten Raumfahrern Intelligenzen entgegengeworfen hat, die sie nicht verstehen konnten, die außerhalb ihrer zur Beschreibung von Vorgängen zur Verfügung stehenden Begriffe kommunizierten, Schlüsse zogen etc.

Das kannst Du jetzt übertragen auf Deine Frage. Emotionen, die nicht konform zu unserem Emotionsmodell laufen, beschreiben wir auch nicht als solche. Relevante Verknüpfung von Wissen, die nicht relevant für uns oder nicht vergleichbar mit für uns relevanter Verknüpfung ist, werden wir auch generell nicht als relevant erkennen.

Das führt zu einem Konflikt. Wenn wir nämlich unter Berücksichtigung des oben Gesagten eine intuitiv akzeptable künstliche Denkform erschafft haben, dann ist sie von unserer eigenen nicht mehr zu unterscheiden. Wenn sie es doch ist, deklassifizieren wir sie automatisch.
Der einzige Ausweg ist ein Modell von Intelligenz, das so allgemeingültig ist, dass auch Vorgänge hineinfallen, die wir nicht als intelligent begreifen, die der Beschreibung aber genügen. Das erinnert etwas an String-Theorie vs. Physik.

Re: Meinungsbild zu starker KI 2007-01-17 10:26
1baumann
Wie siehen aktuell bei euch Informatik-Studis die Meinungen bez. der Realisierbarkeit starker KI aus? Gibt es zufällig welche hier, die sich näher mit dem Thema beschäftigen? Würde mich echt interessieren.

Zum Beispiel (Russel und Norvig: Artificial Intelligence: A Modern Approach. 2002) beschäftigen sich im Kapitel 26 mit dem Thema[1]. Daher rührt meine Meinung zu dem Thema.

Du interessierst Dich ja nur für meine Meinung über die Realisierbarkeit starker KI. Für die Beantwortung muss man sich zwei Fragen stellen:
1. Kann es starke KI geben, die philosophische Frage,
2. Können wir sie mit unseren Mitteln erreichen, die ingenieurwissenschaftliche Frage.
Natürlich ist (1) eine Voraussetzung für (2). Als gute Informatiker ist für mich noch
3. Ist starke KI erstrebenswert, die ethische Frage
interessant.

Gerade die erste Frage ist intensiver Gegenstand der wissenschaftlichen Debatte. Problem ist dafür, man muss starke KI auch erst definieren und von schwacher KI abgrenzen. Ich möchte hier die Sicht vertreten, dass Verhaltensäquivalenz viel relevanter ist und deshalb diese Unterscheidung keine große Rolle spielt. Insbesondere halte ich das, was wir "Bewusstsein" nennen, für eine gute und erfolgbringende Täuschung seitens der Evolution. Dies wird mittlerweile immer stärker durch psychologische und neurologische Forschungen gedeckt und vielleicht sind wir im kleinen nicht mehr weit vom (als Gedankenexperiment entwickelten) Experiment der Hirnprothese (Glymour, Searle, Moravec) entfernt. Wer nach dem (hypothetisch) erfolgreichen Ablauf des Experiments noch an starker KI zweifelt, dem kann ich auch nicht helfen.

Das Hirnprothesenexperiment ist auch ein Kandidat für die Lösung der ingenieurwissenschaftlichen Frage. Warum sollte man denn nicht alle Neuronen simulieren können? Sicher, es sind eine ganze Menge. Aber fangen wir mit einer Küchenschabe an, dann der Papagei von nebenan und später Bello und schon wird ersichtlich, dass es bei Menschen (zweifelsohne Besitzer der starken Intelligenz, zumindest manche) auch möglich ist. Natürlich steigert das die Komplexität und die Kosten aber es bleibt eben eine Frage des Geldes, so wie es bei Laika und Menschen auf dem Mond war.

Bleibt die dritte, die ethische Frage: Wie ist es zum Beispiel mit der technologischen Singularität und der möglichen Auslöschung der Menschheit? Was ist mit den ganz praktischen Folgen für den Menschen durch die fortschreitende Automatisierung (die natürlich nicht nur durch starke KI ausgelöst wird)? Und was ist mit "(Menschen-)Rechten für starke KI"? Genaugenommen ist nur die letzte Frage auf die starke KI beschränkt.

Ich möchte den Aspekt des Erstrebenswerts von starker KI aber uminterpretieren: Nicht nur ethisch ist er interessant, sondern eben auch ingenieurwissenschaftlich. Flugzeuge schlagen nicht mit den Flügeln, warum sollte unsere KI unbedingt "stark" sein? Wäre ein Schachcomputer, der regelmäßig schlafengeht, isst, trinkt und ausscheidet ein intelligenterer Schachcomputer? Wäre Google "intelligenter", wenn es Antworten nur bei Tee und Plätzchen gibt, so wie eine Horde alter, weiser Greise? Ich glaube nicht.

Meine Meinung also: realisierbar ja. Aber eben nicht erstrebenswert, weil es um unsere Hoffnungen die auf KI (meinetwegen auch "starker KI") gegründet sind zu befriedigen, bessere Möglichkeiten gibt: große Tabellen, Statistik und Wahrscheinlichkeitsrechnung und andere (teilweise "intelligentere") Verfahren der klassischen KI-Forschung.

Gruß,
1baumann

[1] Zusammenfassung der Argumentation aus Russel & Norvig:
http://www.timobaumann.de/2004/12/23/AIMA%20Notizen,%20Teil%20VIII,%20Kapitel%2026.html

Re: Meinungsbild zu starker KI 2007-01-17 14:18
garou
Das Hirnprothesenexperiment ist auch ein Kandidat für die Lösung der ingenieurwissenschaftlichen Frage. Warum sollte man denn nicht alle Neuronen simulieren können?
Prinzipiell oder demnächst? Es sind ja nicht nur jede Menge Neuronen, sie funktionieren auch auf recht komplexe Weise; das Perzeptron ist ja nur ein *sehr* vereinfachtes Modell, und einerseits sind die Mechanismen in Neuronen selbst nicht vollständig geklärt, andererseits ist die Entwicklung eines Gehirns ein in Millionen Jahren des Ausprobierens austarierter Prozeß, und die simulierten Neuronen zufällig zu verdrahten wird wahrscheinlich wenig bringen, weshalb wir auch noch einiges über das Zusammenspiel von Neuronengruppen wissen müßten, was auch noch eher future tech ist.
Aber ich habe mit diesem Argument das noch etwas grundlegendere Problem, daß es die Realisierbarkeit von KI zu einer Funktion der Rechenzeit macht ("Wenn wir genug Neuronen simulieren können"). Rechenzeit dürfte heute keine allzu großen Probleme mehr darstellen (es sei denn, im Neuron erwarten uns einige Überraschungen ala Blue Mars, die die effektive Rechenleistung menschlicher Gehirne in die Höhe treiben, ansonsten laßt uns auf die Googlecluster und den Earth Simulator schielen).
Dieser Animus ex Chaos-Ansatz hat aber noch ein anderes Problem: Während wir bei regelbasierten KIs durchaus Annahmen treffen können, wie sie funktionieren, wie sie in Situation X reagieren, würde ein computerevolutionär entstandener Verstand eine blackbox sein. Und wer sowas auf die Menschheit loslassen will, möge sich bitte vorher eine eigene MEnschheit dafür anlegen.

Re: Meinungsbild zu starker KI 2007-01-17 15:10
FireTiger
Das Hirnprothesenexperiment ist auch ein Kandidat für die Lösung der ingenieurwissenschaftlichen Frage. Warum sollte man denn nicht alle Neuronen simulieren können?
Aber ich habe mit diesem Argument das noch etwas grundlegendere Problem, daß es die Realisierbarkeit von KI zu einer Funktion der Rechenzeit macht ("Wenn wir genug Neuronen simulieren können"). Rechenzeit dürfte heute keine allzu großen Probleme mehr darstellen (es sei denn, im Neuron erwarten uns einige Überraschungen ala Blue Mars, die die effektive Rechenleistung menschlicher Gehirne in die Höhe treiben, ansonsten laßt uns auf die Googlecluster und den Earth Simulator schielen).
Brain@Home?
Das wäre mal was wirklich neues.
SCNR

Re: Meinungsbild zu starker KI 2007-01-17 16:44
Wolf
Nicht schnell genug.

Re: Meinungsbild zu starker KI 2007-01-17 22:57
1baumann
Garou, wer spricht denn von Animus ex Chaos?

Das Hirnprothesenexperiment (prinzipiell ein Gedankenexperiment, aber frag mal Ray Kurzweil nach seiner Meinung) funktioniert folgendermaßen: Du nimmst einen Menschen (zum probieren erstmal Kakerlaken), suchst Dir ein Neuron aus, studierst sein Verhalten ausreichend gut, und ersetzst es dann durch eine Simulation in dem Du die Verbindungen zum Neuron überbrückst. Dann machst Du mit dem nächsten Neuron weiter. Wenn Du fertig bist, ist kein Neuron mehr aktiv. Dann schnappst Du Dir das zuletzt überbrückte Neuron, stimulierst es solange, bis es sich wie das simulierte verhält und ersetzt mit dem Neuron die Simulation. Das machst Du wieder, bis alle Neuronen wieder an ihrem Platz sind. Wenn der Mensch danach noch intelligent ist, dann war die simulierende Maschine zwischendurch auch "echt" intelligent. Wie gesagt: es ist ein Gedankenexperiment. Für mich würde es auch reichen, wenn nur eine kleine Teilmenge der Neuronen simuliert würde.

Was die Geschwindigkeit angeht: Spielt die eine Rolle? Es wäre ja gegebenenfalls möglich, den Körper vom Hirn zu trennen und damit die Umwelteinflüsse entsprechend verlangsamt der Simulation zuführen. Abgesehen davon, sind Kaltblüter bei schlechtem Wetter nicht intelligent, weil ihr Kreislauf dann langsamer läuft? Vielleicht sind sie weniger intelligent, aber hier reden wir ja immer von der ja/nein-Einordnung.

Ansonsten möchte ich mich der Meinung anschließen, dass uns starke KI erkenntnistheoretisch nichts bringt, weil es eben genau die Blackbox bleibt, die ein Hirn jetzt schon ist. Deshalb lieber Regelbasierung, Statistik und andere schwache, aber handhabbare Techniken.

Re: Meinungsbild zu starker KI 2007-01-18 10:23
Anarch
Oh, schöner Thread, Danke, MIN-Vertreter :-)

Timo hat die Positionen dazu ja schon gut ausgeführt. Was mir noch wichtig erscheint ist ja, dass wir gar keine wirkliche Definition dessen haben, das wir im Allgemeinen mit dem Begriff „Intelligenz“ meinen. Wir haben so ein grobes intuitives Verständnis, und Spezialwissenschaften haben auch etwas definiert, aber so wirklich passt das nicht zum allgemein verwendeten Begriff. Dieser Begriff wandelt sich auch mit der Zeit – so war recht lange ja Schachspielen ein deutliches Zeichen für Intelligenz, nur seitdem man Computer hat, die mit wirklich stupiden Mitteln arbeiten, findet man das gar nicht mehr sooo intelligent. Irgendwie habe ich den Eindruck, als gehöre zu unserem normalen Gebrauch von „Intelligenz“ etwas mystisches dazu. Das heißt, sobald wir verstehen, was passiert, finden wir den Begriff „intelligent“ unpassend.

Das ist, denke ich, auch ein wichtiger Faktor in der Diskussion um „starke Intelligenz“ – wenn wir uns nämlich selbst verstehen würden, würden wir uns dann noch selbst für „intelligent“ halten? Vor diesem Punkt, vor diesem Diebstahl des Mystizismus der Intelligenz, haben einige Leute Angst.

Die Frage ist natürlich: Können wir überhaupt wirklich verstehen, wie wir arbeiten? Der Spruch „if the human brain were so simple that we could understand it, we would be so simple we couldn't“ ist nicht nur lustig, sondern verweist auch auf ein Rekursionsproblem, das durchaus ein Problem sein dürfte. Wir können uns, unsere Intelligenz, unser Hirn eventuell nur in Ansätzen, nie jedoch in der Vollständigkeit verstehen. Und ohne Verständnis wird das Nachbauen schwierig. Genaugenommen würde dieses Nachbauen dann auch eher die Form eines magischen Experiments annehmen: Wir haben dieses Etwas, das wir nicht verstehen, mit dem führen wir einige Rituale durch, und plötzlich kann es denken, und wir wissen nicht so wirklich, warum. Aber es funktioniert wenigstens. Ansätze dieser Probleme sieht man schon heutzutage bei den neuronalen Netzen, die nur in Teilen zu den von Timo so geliebten „handhabbaren Methoden“ gehören.

Was den Sinn des Ganzen angeht… Ich kann durchaus verstehen, dass man etwas bauen möchte, das intelligent ist. So eine Leistung dürfte trotz der obigen Überlegungen unser Verständnis unser selbst und der restlichen Welt durchaus voranbringen, und das finde ich einen guten Zweck. Mein Problem dabei ist eine recht grundlegende ethische Frage: Hat eine „starke KI“ Menschenrechte? Damit wären wir sehr eingeschränkt darin, was wir mit ihr tun können (gut so!). Und bevor jemand meint, dass das eine lustige Frage ist: In Spanien wird gerade diskutiert, ob man die Menschenrechte nicht auf Menschenaffen ausdehnen sollte (auch hier: gut so!). Kann sich ja jeder mal überlegen, was es heißen würden, wenn das eigene, frisch geschriebene Programm jetzt plötzlich Menschenrechte hat.

Aber, um jetzt mal etwas konkreter zu werden (und um zur ingeneurswissenschaftlichen Frage zu kommen), ich halte es für unwahrscheinlich, dass wir Informatiker in den nächsten … sagen wir 50 Jahren (eher mehr) eine starke KI entwickeln. Und eine Lösung für irgendwelche Probleme, ausgenommen eventuell der Frage, wie wir selbst funktionieren, sehe ich darin auch nicht.

RE: Meinungsbild zu starker KI 2007-05-14 22:34
Anonymer User
Aber ich habe mit diesem Argument das noch etwas grundlegendere Problem, daß es die Realisierbarkeit von KI zu einer Funktion der Rechenzeit macht ("Wenn wir genug Neuronen simulieren können"). Rechenzeit dürfte heute keine allzu großen Probleme mehr darstellen (es sei denn, im Neuron erwarten uns einige Überraschungen ala Blue Mars, die die effektive Rechenleistung menschlicher Gehirne in die Höhe treiben, ansonsten laßt uns auf die Googlecluster und den Earth Simulator schielen).
In der Vergangenheit wurde die Leistungsfähigkeit des Gehirns massiv unterschätzt. Erst in etwa zehn bis fünfzehn Jahren bei gleichbleibender exponentieller Entwicklung sollen unsere Rechner in der Lage sein an die Rechenkraft eines Gehirns zu kommen.

Dieser Animus ex Chaos-Ansatz hat aber noch ein anderes Problem: Während wir bei regelbasierten KIs durchaus Annahmen treffen können, wie sie funktionieren, wie sie in Situation X reagieren, würde ein computerevolutionär entstandener Verstand eine blackbox sein. Und wer sowas auf die Menschheit loslassen will, möge sich bitte vorher eine eigene MEnschheit dafür anlegen.
Wie dir selbst natürlich klar ist wird sich keiner eine eigene Menschheit für solche Experimente anlegen. Trotzdem wird, wie die Erfahrung zeigt, das umgesetzt was möglich ist. Könnte interessant werden.

RE: Meinungsbild zu starker KI 2007-05-14 22:39
Anonymer User
Was die Geschwindigkeit angeht: Spielt die eine Rolle? Es wäre ja gegebenenfalls möglich, den Körper vom Hirn zu trennen und damit die Umwelteinflüsse entsprechend verlangsamt der Simulation zuführen. Abgesehen davon, sind Kaltblüter bei schlechtem Wetter nicht intelligent, weil ihr Kreislauf dann langsamer läuft? Vielleicht sind sie weniger intelligent, aber hier reden wir ja immer von der ja/nein-Einordnung.
Rechengeschwindigkeit könnte die zentrale Rolle spielen. Der Unterschied zwischen unseren Hirnen und den Hirnen von Tieren ist auch kein qualitativer, sondern ein quantitativer. Durch feinere Strukturen zusammen mit einer beachtlichen Masse ist unser Gehirn so leistungsfähig.

Es ist überdies umstritten, ob es eine harte Abstufung geben kann. Wahrscheinlich sind die Übergänge von fehlender Intelligenz über schwache KI hin zur starkten KI fließend und hängen bei opimaler Ausnutzung der Hardware eben von der Rechenleistung ab.

Man sollte sich auch mal daran erinnern, dass wir unsere eigene Intelligenz zum Großteil daran bemessen, wie schnell wir in der Lage sind Probleme zu lösen. Zeit und damit die Leistung und damit wiederum die Rechenleistung ist ein entscheidender Faktor.

Ansonsten möchte ich mich der Meinung anschließen, dass uns starke KI erkenntnistheoretisch nichts bringt, weil es eben genau die Blackbox bleibt, die ein Hirn jetzt schon ist. Deshalb lieber Regelbasierung, Statistik und andere schwache, aber handhabbare Techniken.
Das ist eine ziemlich negative Formulierung. Dabei hast du doch selbst die technologische Singularität angesprochen, für die die starke KI eine zentrale Technologie ist. Wenn das kein erkenntnistheoretischer Gewinn wäre, dann weiß ich auch nicht. ;-)

RE: Meinungsbild zu starker KI 2007-05-14 22:47
Anonymer User
Die Frage ist natürlich: Können wir überhaupt wirklich verstehen, wie wir arbeiten? Der Spruch „if the human brain were so simple that we could understand it, we would be so simple we couldn't“ ist nicht nur lustig, sondern verweist auch auf ein Rekursionsproblem, das durchaus ein Problem sein dürfte. Wir können uns, unsere Intelligenz, unser Hirn eventuell nur in Ansätzen, nie jedoch in der Vollständigkeit verstehen. Und ohne Verständnis wird das Nachbauen schwierig. Genaugenommen würde dieses Nachbauen dann auch eher die Form eines magischen Experiments annehmen: Wir haben dieses Etwas, das wir nicht verstehen, mit dem führen wir einige Rituale durch, und plötzlich kann es denken, und wir wissen nicht so wirklich, warum. Aber es funktioniert wenigstens. Ansätze dieser Probleme sieht man schon heutzutage bei den neuronalen Netzen, die nur in Teilen zu den von Timo so geliebten „handhabbaren Methoden“ gehören.
Es würde auch reichen, wenn ein Expertenteam zusammenarbeitet und jeder Teile des ganzen Versteht. Wenn man eine Rakete baut muss auch nicht jeder bis ins letzte Detail wissen wie die alle anderen Teile funktionieren, außer denen, an denen er selbst arbeitet.

Was den Sinn des Ganzen angeht… Ich kann durchaus verstehen, dass man etwas bauen möchte, das intelligent ist. So eine Leistung dürfte trotz der obigen Überlegungen unser Verständnis unser selbst und der restlichen Welt durchaus voranbringen, und das finde ich einen guten Zweck. Mein Problem dabei ist eine recht grundlegende ethische Frage: Hat eine „starke KI“ Menschenrechte? Damit wären wir sehr eingeschränkt darin, was wir mit ihr tun können (gut so!). Und bevor jemand meint, dass das eine lustige Frage ist: In Spanien wird gerade diskutiert, ob man die Menschenrechte nicht auf Menschenaffen ausdehnen sollte (auch hier: gut so!). Kann sich ja jeder mal überlegen, was es heißen würden, wenn das eigene, frisch geschriebene Programm jetzt plötzlich Menschenrechte hat.
So einfach darf man sich das auch nicht machen. Menschenrechte sind von Menschen für Menschen gedacht. Sie sind an die Bedürfnisse des Menschen angepasst und wären etwa auf einen intelligenten Roboter nicht einfach so übertragbar. Beispielsweise, weil ein Roboter nicht in dem Sinne sterben kann, wie wir es können und weil all seine Teile durch gleichwertige Teile ersetzbar sind. Und wenn man noch ein BackUp von seiner Software zieht und diese somit auch immer wiederhergestellt werden kann und ihm dann noch keine eigenen Bedürfnisse gibt, außer den Menschen zu dienen, dann könnte man das Problem so umgehen.