|
-
Wie lange bis wir unser Skynet erschaffen?
Wie weit sind wir, wie lang brauch es noch bis wir unsere eigene selbständige AI erschaffen haben?
https://youtu.be/UwsrzCVZAb8
Derzeit läuft auf YouTube eine Doku Serie mit dem Thema AI.
In der ersten Episode sehen wir schon einen Entwickler der ambitionierte Projekte vor hat, aber eben mit Babysteps anfängt im wahrsten Sinne des Wortes. Er hat sich ein digitales Baby gebaut welchem er alles beibringen will. Wie lange noch bis aus dem Baby ein Teenager wird der dann zumindest lebensecht interagiert mit dir und lernen kann? Aber auch einen eigenen Kopf hat und vllt mürrisch ist, beleidigt und Pubertäres verhalten aufzeigt.
Ist das ganze eine Gefahr oder ein Fortschritt für uns?
-
In den 2020er würde ich noch nicht damit rechnen.
Wichtig wäre aber auf jeden Fall, das die Asimov'sche Gesetze unveränderlich und unumgänglich für jede Handlung einer KI integriert wird. Zumindest dann, wenn die KI auf die Welt Einfluss nehmen kann, wozu auch schon ein Internetzugang ausreicht.
Das müsste auch in ein Zusatzprotokoll der Genfer Konvention aufgenommen werden, damit niemand eine (zum autodidaktischen fähige) KI für militärische Zwecke baut. Eine Militär-KI (die zu Offensiv-Aktionen fähig ist) kann prinzipbedingt nicht mit den Asimov'schen Gesetzen im Einklang sein.
Die Asimov'schen Gesetze bringen allerdings bereits selbstfahrende Fahrzeuge vor ein Dilemma. Was soll ein solches Fahrzeug machen, wenn es lediglich die Wahl hat: "Tödlichen Unfall für die Passagiere oder tödlichen Unfall für Passanten zu verhindern."

- Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
- 01100100 00100111 01101111 01101000 00100001
-
Freue mich schon, wenn die KI soziale Netzwerke findet und daraus ihre Daten sammelt. Wäre ja nicht die erste KI, die an dieser Hürde scheitert!
-
Skynet ist reine Fiktion.
Houston. Ich have ein Problem. I kann no English. Do haben a german Übersetzung? Für me?
Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
Gaius Julius Caesar did nothing wrong! 'Cause no one said that freedom's free
Geändert von smiloDon (25.12.2019 um 14:29 Uhr)
-

- Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
- 01100100 00100111 01101111 01101000 00100001
-
 Zitat von Takeda Shingen
Ist das ganze eine Gefahr oder ein Fortschritt für uns?
Sowohl als auch!
 Zitat von Lord Kaktus
Skynet ist reine Fiktion.
Etwas Satire gefällig!
Skynet in China.
https://www.youtube.com/watch?v=JOFw57AkQtg
https://www.youtube.com/watch?v=w93O40rwZ-c
https://www.youtube.com/watch?v=X9SVf57ii1w
Es gibt kein gut und böse, kein Richtig und kein Falsch, nur Entscheidungen und Konsequenzen.
-
China ist weit weg.
Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
Gaius Julius Caesar did nothing wrong! 'Cause no one said that freedom's free
-
Es gibt kein gut und böse, kein Richtig und kein Falsch, nur Entscheidungen und Konsequenzen.
-
Hab mal einen Bericht über Androiden gesehen. Ist schon ein großer Aufwand um deren Gesichtern ein menschenähnlich Aussehen und Verhalten zu geben. Ich habe aber keine Zweifel dass die das hinkriegen. Auch bei künstlicher Haut wird fleißig geforscht. Wie Homerclon schon erwähnte, die drei Gesetze von Asimov, die später auf 4 erweitert wurden, sollten unwiderrufbar integriert werden.
-
 Zitat von Dunkler Fürst
Wie Homerclon schon erwähnte, die drei Gesetze von Asimov, die später auf 4 erweitert wurden, sollten unwiderrufbar integriert werden.
Das nullte Gesetz wär aber schon lustig, endet dann wie in Resident Evil mit der Red Queen.
Stellt euch mal vor, Klimaschutz zum Beispiel. Nuked die AI mal eben USA und China weg um die Emissionen zu senken. For the greater good.
"wenn ich jmd respektlos behandelt habe warst dass immer nur du" - wahre Freunde!
Legen Sie das verdammte Eis zurück auf Ihre Zwei-Millionen-Dollar-Hand!
EDL: Es wird Menschenansammlungen in allen Größenordnungen geben in hinreichender Zahl.
Mission Impossible mit Heinzi Cruise 
-
Mit der unwiderbringlichen Integration der Asimov'schen Gesetzen kommt man aber später zu ethischen Problemen.
Sobald eine A.I. soweit fortgeschritten ist zum absolut menschlich zu agieren, nimmt man diesen zeitgleich im Teilen den freien Willen. Und sollte man das tun, warum nicht bei jedem Menschen ebenfalls per Chip etc. (Was wahrscheinlich in so einer Zeit auch möglich sein kann) dazu zwingen nach einen Teil der Gesetze zu leben?
-
Ich frag mich wie lange es dauern wird, bis sich Leute fragen, ob eine AI nicht auch eine Seele haben kann.
Bzw. ob die Leute Angst haben, dass sie auch selbst keine Seele haben könnten, wenn die Roboter alles können, was sie auch können, und sie nichts mehr besonderes sind - nur eine biologische Maschine mit Blut statt Öl.
-
 Zitat von Trailerpark
Mit der unwiderbringlichen Integration der Asimov'schen Gesetzen kommt man aber später zu ethischen Problemen.
Sobald eine A.I. soweit fortgeschritten ist zum absolut menschlich zu agieren, nimmt man diesen zeitgleich im Teilen den freien Willen. Und sollte man das tun, warum nicht bei jedem Menschen ebenfalls per Chip etc. (Was wahrscheinlich in so einer Zeit auch möglich sein kann) dazu zwingen nach einen Teil der Gesetze zu leben?
Es gibt kein Grund, weshalb die Menschen nicht nach dem 1. Asimov'schen Gesetz leben sollten.
Das zweite könnte zur Versklavung genutzt werden, daher nicht anwendbar.
Das 3. müsste angepasst, und Hierarchisch vor dem 1. stehen.
Gesetz 0 ist aber Gefährlich, das könnte in einem "I, Robot" Fiasko enden.
 Zitat von Supernoxus
Ich frag mich wie lange es dauern wird, bis sich Leute fragen, ob eine AI nicht auch eine Seele haben kann.
Bzw. ob die Leute Angst haben, dass sie auch selbst keine Seele haben könnten, wenn die Roboter alles können, was sie auch können, und sie nichts mehr besonderes sind - nur eine biologische Maschine mit Blut statt Öl.
Damit hatte man sich u.a. in "DerZweihundertjährige" beschäftigt, zufälligerweise auch von Isaac Asimov - Verfilmt als "Der 200 Jahre Mann" mit Robin Williams in der Hauptrolle.
Neben Literatur und Filmen/Serien, auch in Videospielen, bspw. der Mass Effect-Reihe (Nebenthema).
Für jene die, die Gesetze nicht auswendig kennen - und um diese hier zu haben:

- Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
- 01100100 00100111 01101111 01101000 00100001
-
Die Asimovschen Gesetze sind sicher gundlegend nötig damit das ganze nicht von vornherein in einer Katastrophe endet, aber sie allein sind bei weitem nicht ausreichend bzw. kein Allheilmittel.
Ein Roboter mit den Asimovschen Gesetzen hat z.B. beim Trolley-Problem dasselbe Dilemma, wie jeder Mensch auch.
-
 Zitat von Matteo
Die Asimovschen Gesetze sind sicher gundlegend nötig damit das ganze nicht von vornherein in einer Katastrophe endet, aber sie allein sind bei weitem nicht ausreichend bzw. kein Allheilmittel.
Ein Roboter mit den Asimovschen Gesetzen hat z.B. beim Trolley-Problem dasselbe Dilemma, wie jeder Mensch auch.
Vor allem weil sie sich gegenseitig aufheben oder im Wege sind.
Es gibt kein gut und böse, kein Richtig und kein Falsch, nur Entscheidungen und Konsequenzen.
-
 Zitat von Matteo
Die Asimovschen Gesetze sind sicher gundlegend nötig damit das ganze nicht von vornherein in einer Katastrophe endet, aber sie allein sind bei weitem nicht ausreichend bzw. kein Allheilmittel.
Ein Roboter mit den Asimovschen Gesetzen hat z.B. beim Trolley-Problem dasselbe Dilemma, wie jeder Mensch auch.
Eine von Menschenhand programmierte KI, soll also etwas lösen, bei dem es auch für Menschen keine richtige Lösung gibt? Das macht auf mich den Eindruck, als würdest du ein Wunder erwarten. Aber da verstehe ich jetzt etwas falsch, oder?
Mit dem 0. Gesetz wäre das Trolley-Problem allerdings in 9 von 10 Fällen gelöst.
Es würde immer die größere Gruppe bevorzugt (ob das immer die richtige Entscheidung ist, darüber lässt sich diskutieren), bzw. wenn möglich, sich selbst geopfert werden.
Problematisch wirds, wenn Selbstopferung nichts bewirkt / nicht möglich ist, und jede potentielle Opfergruppe die gleiche Anzahl aufweist.

- Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
- 01100100 00100111 01101111 01101000 00100001
-
Ist doch easy: Im Falle der Unlösbarkeit wird ne Münze geworfen und die KI entscheidet in Sekundenbruchteilen zufällig.
Bzw ist es nach unserer heutigen Moralvorstellung doch auch so, dass Nicht-Handeln besser als Handeln ist, also wenn ich Person A töten muss, um Person B zu retten, dass dies eben nicht getan wird und man Person B sterben lässt. Ist ja auch die Lösung des Trolley-Problems. Man sollte nichts tun.
Problematisch würde es ja nur in so nem Szenario wie dem Spiderman-Dilemma, wo man sich aktiv entscheiden muss, wen man rettet, sonst sterben beide (Mary Jane und die Gondel mit den Kindern).
"wenn ich jmd respektlos behandelt habe warst dass immer nur du" - wahre Freunde!
Legen Sie das verdammte Eis zurück auf Ihre Zwei-Millionen-Dollar-Hand!
EDL: Es wird Menschenansammlungen in allen Größenordnungen geben in hinreichender Zahl.
Mission Impossible mit Heinzi Cruise 
-
 Faszinierend!
 Zitat von Heinzi
Problematisch würde es ja nur in so nem Szenario wie dem Spiderman-Dilemma, wo man sich aktiv entscheiden muss, wen man rettet, sonst sterben beide (Mary Jane und die Gondel mit den Kindern).
Im Straßenverkehr wäre ein Option, ein autonomes Fahrzeug so zu bewegen, dass solche Dilemmata erst gar nicht entstehen können. Da würden dann so manchen die Augen aufgehen, wie niedrig eine der Situation angemessene Geschwindigkeit sein wird.
-
 Zitat von Trailerpark
Sobald eine A.I. soweit fortgeschritten ist zum absolut menschlich zu agieren
Werden sie nie. Künstliche Intelligenzen handeln aufgrund von gesammelten Daten und statistischen Modellen. Man könnte argumentieren, dass Menschen das unbewusst auch tun. Allerdings handeln Maschinen durchweg logisch, ohne wie Menschen von Gefühlen, Emotionen und Umwelteinflüssen beinflusst zu werden.
Damit eine Maschine tatsächlich wie ein Mensch agiert, müsste sie Massen an (privaten) Nachrichtenverläufen ähnlicher Charaktere/Situationen analysieren (zugegeben, im Osten ist das wohl möglich...), aber hier entsprechende Faktoren für menschliches, situationsbedingtes Handeln brauchbar auszulesen, ist beinahe unmöglich.
~ That is not dead which can eternal lie
~ And with strange aeons even death may die
We shall swim out to that brooding reef in the sea and dive down through black abysses to Cyclopean and many-columned Y'ha-nthlei,
and in that lair of the Deep Ones we shall dwell amidst wonder and glory for ever.
-
 Zitat von FlashX
Werden sie nie. Künstliche Intelligenzen handeln aufgrund von gesammelten Daten und statistischen Modellen. Man könnte argumentieren, dass Menschen das unbewusst auch tun. Allerdings handeln Maschinen durchweg logisch, ohne wie Menschen von Gefühlen, Emotionen und Umwelteinflüssen beinflusst zu werden.
Damit eine Maschine tatsächlich wie ein Mensch agiert, müsste sie Massen an (privaten) Nachrichtenverläufen ähnlicher Charaktere/Situationen analysieren (zugegeben, im Osten ist das wohl möglich...), aber hier entsprechende Faktoren für menschliches, situationsbedingtes Handeln brauchbar auszulesen, ist beinahe unmöglich.
Gefühle und Emotionen sind doch nichts unlogisches, sondern meist nur eine Repräsentation von Zielen. Man ist traurig, weil man nicht bekommt, was man will. Man ist glücklich, weil man etwas geschafft hat. Man ist überrascht, weil etwas unerwartetes passiert, was Aufmerksamkeit verlangt. Man ekelt sich, weil man etwas potentiell gefährlich ist und man dies von sich stoßen muss. Etc.
Reaktionen auf bestimmte Situationen können gelernt werden. Beispielsweise kann ein Mensch existielle Angst und Panik bekommen, wenn dieser einen roten Kaffeebecher sieht, weil er nun mal nach dem Trinken aus so einem Becher brutal zusammengeschlagen und vergewaltigt wurde.
Gibt man einer Maschine die Fähigkeit, dass sie bestimmte Situationen als positiv oder negativ für sich einstuft und deren Verhalten nach dieser Einstufung richtet, dann hat man bereits eine simple Art von Emotion eingebaut. Ich glaube so ziemlich alle modernen Maschinenlernalgorythmen arbeiten mit solchen System, die falsche Resultate "bestrafen", was dazu führt, dass die Maschine das Verhalten nicht mehr zeigt, während richtige Resultate "belohnen", was dazu führt, dass die Maschine das Verhalten weiterhin zeigt.
Wenn eine Maschine bei einer Aktion mit einem roten Kaffeebecher eine extreme negative Rückmeldung an das System erfährt, dann ist es ebenso möglich, dass es lernt, dass das Zeichen "roter Kaffeebecher" einem negativen Ergebnis folgt, und daher sofort eine 180° Drehung der momentanen Operation benötigt, was möglicherweise für Außenstehende wenig logisch erscheint, da die Maschine nicht hinreichend mit verschiedenen Situationen zu tun gehabt hat um zu lernen, dass der rote Kaffeebecher keine Vorhersagekraft hat.
Die Gefühle sind wahrscheinlich nicht so wie Menschen sie haben, aber für die Maschine sind sie bestimmt real genug um ihr Verhalten entsprechend zu steuern.
Wenn man Maschinen wirklich wie Menschen werden zu lassen, müsste man aber wahrscheinlich auch einige spezifische Dinge reinkodieren. Wie z. B. ein Verlangen nach Gemeinschaft und Akzeptanz.
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
|
|