Portal-Zone Gothic-Zone Gothic II-Zone Gothic 3-Zone Gothic 4-Zone Modifikationen-Zone Download-Zone Foren-Zone RPG-Zone Almanach-Zone Spirit of Gothic

 

Seite 1 von 2 12 Letzte »
Ergebnis 1 bis 20 von 28
  1. Homepage besuchen Beiträge anzeigen #1 Zitieren
    banned
    Registriert seit
    Sep 2006
    Ort
    Provinz: Kai
    Beiträge
    12.503
     
    Takeda Shingen ist offline

    Wie lange bis wir unser Skynet erschaffen?

    Wie weit sind wir, wie lang brauch es noch bis wir unsere eigene selbständige AI erschaffen haben?

    https://youtu.be/UwsrzCVZAb8

    Derzeit läuft auf YouTube eine Doku Serie mit dem Thema AI.
    In der ersten Episode sehen wir schon einen Entwickler der ambitionierte Projekte vor hat, aber eben mit Babysteps anfängt im wahrsten Sinne des Wortes. Er hat sich ein digitales Baby gebaut welchem er alles beibringen will. Wie lange noch bis aus dem Baby ein Teenager wird der dann zumindest lebensecht interagiert mit dir und lernen kann? Aber auch einen eigenen Kopf hat und vllt mürrisch ist, beleidigt und Pubertäres verhalten aufzeigt.

    Ist das ganze eine Gefahr oder ein Fortschritt für uns?

  2. Beiträge anzeigen #2 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    19.785
     
    Homerclon ist offline
    In den 2020er würde ich noch nicht damit rechnen.

    Wichtig wäre aber auf jeden Fall, das die Asimov'sche Gesetze unveränderlich und unumgänglich für jede Handlung einer KI integriert wird. Zumindest dann, wenn die KI auf die Welt Einfluss nehmen kann, wozu auch schon ein Internetzugang ausreicht.
    Das müsste auch in ein Zusatzprotokoll der Genfer Konvention aufgenommen werden, damit niemand eine (zum autodidaktischen fähige) KI für militärische Zwecke baut. Eine Militär-KI (die zu Offensiv-Aktionen fähig ist) kann prinzipbedingt nicht mit den Asimov'schen Gesetzen im Einklang sein.

    Die Asimov'schen Gesetze bringen allerdings bereits selbstfahrende Fahrzeuge vor ein Dilemma. Was soll ein solches Fahrzeug machen, wenn es lediglich die Wahl hat: "Tödlichen Unfall für die Passagiere oder tödlichen Unfall für Passanten zu verhindern."

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001

  3. Beiträge anzeigen #3 Zitieren
    hier steht auch Text Avatar von Olivia
    Registriert seit
    Dec 2008
    Beiträge
    16.944
     
    Olivia ist offline
    Freue mich schon, wenn die KI soziale Netzwerke findet und daraus ihre Daten sammelt. Wäre ja nicht die erste KI, die an dieser Hürde scheitert!

  4. Homepage besuchen Beiträge anzeigen #4 Zitieren
    Verloren in Thedas Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    12.781
     
    Almalexia ist offline
    Skynet ist reine Fiktion.

    Houston. Ich have ein Problem. I kann no English. Do haben a german Übersetzung? Für me?
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Geändert von smiloDon (25.12.2019 um 14:29 Uhr)

  5. Beiträge anzeigen #5 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    19.785
     
    Homerclon ist offline
    Zitat Zitat von Olivia Beitrag anzeigen
    Freue mich schon, wenn die KI soziale Netzwerke findet und daraus ihre Daten sammelt. Wäre ja nicht die erste KI, die an dieser Hürde scheitert!
    Wenn sie nicht kapituliert und "Selbstmord" begeht, kommt sie wahrscheinlich zum gleichen Schluss wie Skynet ... Man sollte KIs daher von den Sozialen Netzwerken fernhalten.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001

  6. Beiträge anzeigen #6 Zitieren
    Deus Avatar von Apubec
    Registriert seit
    Jan 2011
    Beiträge
    10.447
     
    Apubec ist offline
    Zitat Zitat von Takeda Shingen Beitrag anzeigen

    Ist das ganze eine Gefahr oder ein Fortschritt für uns?
    Sowohl als auch!

    Zitat Zitat von Lord Kaktus Beitrag anzeigen
    Skynet ist reine Fiktion.
    Etwas Satire gefällig!
    Skynet in China.
    https://www.youtube.com/watch?v=JOFw57AkQtg

    https://www.youtube.com/watch?v=w93O40rwZ-c

    https://www.youtube.com/watch?v=X9SVf57ii1w
    Es gibt kein gut und böse, kein Richtig und kein Falsch, nur Entscheidungen und Konsequenzen.

  7. Homepage besuchen Beiträge anzeigen #7 Zitieren
    Verloren in Thedas Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    12.781
     
    Almalexia ist offline
    China ist weit weg.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free


  8. Beiträge anzeigen #8 Zitieren
    Deus Avatar von Apubec
    Registriert seit
    Jan 2011
    Beiträge
    10.447
     
    Apubec ist offline
    Zitat Zitat von Lord Kaktus Beitrag anzeigen
    China ist weit weg.
    Der Rest der Welt kopiert und kauft dort ein.
    Jedes EU Land muss die EU Richtlinien selbst durchsetzen, wie ist wurscht.
    Willkommen im Real Life.
    Es gibt kein gut und böse, kein Richtig und kein Falsch, nur Entscheidungen und Konsequenzen.

  9. Beiträge anzeigen #9 Zitieren
    Lead Cenobite Avatar von Dunkler Fürst
    Registriert seit
    Dec 2008
    Ort
    In den Gängen von Leviathan
    Beiträge
    56.981
     
    Dunkler Fürst ist offline
    Hab mal einen Bericht über Androiden gesehen. Ist schon ein großer Aufwand um deren Gesichtern ein menschenähnlich Aussehen und Verhalten zu geben. Ich habe aber keine Zweifel dass die das hinkriegen. Auch bei künstlicher Haut wird fleißig geforscht. Wie Homerclon schon erwähnte, die drei Gesetze von Asimov, die später auf 4 erweitert wurden, sollten unwiderrufbar integriert werden.

  10. Beiträge anzeigen #10 Zitieren
    dann wähle doch deinen sonderrang Avatar von Heinzi
    Registriert seit
    Jul 2007
    Ort
    Aachen
    Beiträge
    13.608
     
    Heinzi ist offline
    Zitat Zitat von Dunkler Fürst Beitrag anzeigen
    Wie Homerclon schon erwähnte, die drei Gesetze von Asimov, die später auf 4 erweitert wurden, sollten unwiderrufbar integriert werden.
    Das nullte Gesetz wär aber schon lustig, endet dann wie in Resident Evil mit der Red Queen.

    Stellt euch mal vor, Klimaschutz zum Beispiel. Nuked die AI mal eben USA und China weg um die Emissionen zu senken. For the greater good.
    "wenn ich jmd respektlos behandelt habe warst dass immer nur du" - wahre Freunde!

    Legen Sie das verdammte Eis zurück auf Ihre Zwei-Millionen-Dollar-Hand!
    EDL: Es wird Menschenansammlungen in allen Größenordnungen geben in hinreichender Zahl.
    Mission Impossible mit Heinzi Cruise

  11. Beiträge anzeigen #11 Zitieren
    Deus Avatar von Deathpoodle
    Registriert seit
    Oct 2006
    Ort
    Irgendein Schlafplatz
    Beiträge
    12.229
     
    Deathpoodle ist offline
    Mit der unwiderbringlichen Integration der Asimov'schen Gesetzen kommt man aber später zu ethischen Problemen.
    Sobald eine A.I. soweit fortgeschritten ist zum absolut menschlich zu agieren, nimmt man diesen zeitgleich im Teilen den freien Willen. Und sollte man das tun, warum nicht bei jedem Menschen ebenfalls per Chip etc. (Was wahrscheinlich in so einer Zeit auch möglich sein kann) dazu zwingen nach einen Teil der Gesetze zu leben?

  12. Beiträge anzeigen #12 Zitieren
    Ehrengarde Avatar von Supernoxus
    Registriert seit
    May 2009
    Beiträge
    2.571
     
    Supernoxus ist offline
    Ich frag mich wie lange es dauern wird, bis sich Leute fragen, ob eine AI nicht auch eine Seele haben kann.
    Bzw. ob die Leute Angst haben, dass sie auch selbst keine Seele haben könnten, wenn die Roboter alles können, was sie auch können, und sie nichts mehr besonderes sind - nur eine biologische Maschine mit Blut statt Öl.

  13. Beiträge anzeigen #13 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    19.785
     
    Homerclon ist offline
    Zitat Zitat von Trailerpark Beitrag anzeigen
    Mit der unwiderbringlichen Integration der Asimov'schen Gesetzen kommt man aber später zu ethischen Problemen.
    Sobald eine A.I. soweit fortgeschritten ist zum absolut menschlich zu agieren, nimmt man diesen zeitgleich im Teilen den freien Willen. Und sollte man das tun, warum nicht bei jedem Menschen ebenfalls per Chip etc. (Was wahrscheinlich in so einer Zeit auch möglich sein kann) dazu zwingen nach einen Teil der Gesetze zu leben?
    Es gibt kein Grund, weshalb die Menschen nicht nach dem 1. Asimov'schen Gesetz leben sollten.
    Das zweite könnte zur Versklavung genutzt werden, daher nicht anwendbar.
    Das 3. müsste angepasst, und Hierarchisch vor dem 1. stehen.

    Gesetz 0 ist aber Gefährlich, das könnte in einem "I, Robot" Fiasko enden.

    Zitat Zitat von Supernoxus Beitrag anzeigen
    Ich frag mich wie lange es dauern wird, bis sich Leute fragen, ob eine AI nicht auch eine Seele haben kann.
    Bzw. ob die Leute Angst haben, dass sie auch selbst keine Seele haben könnten, wenn die Roboter alles können, was sie auch können, und sie nichts mehr besonderes sind - nur eine biologische Maschine mit Blut statt Öl.
    Damit hatte man sich u.a. in "DerZweihundertjährige" beschäftigt, zufälligerweise auch von Isaac Asimov - Verfilmt als "Der 200 Jahre Mann" mit Robin Williams in der Hauptrolle.
    Neben Literatur und Filmen/Serien, auch in Videospielen, bspw. der Mass Effect-Reihe (Nebenthema).


    Für jene die, die Gesetze nicht auswendig kennen - und um diese hier zu haben:
    Spoiler:(zum lesen bitte Text markieren)
    1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
    2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
    3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

    Bzw. die um eine 4. Erweiterte:
    • 0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
    • 1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
    • 2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
    • 3. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001

  14. Beiträge anzeigen #14 Zitieren
    Forenkater Avatar von Matteo
    Registriert seit
    Dec 2003
    Ort
    Khorinis
    Beiträge
    16.970
     
    Matteo ist offline
    Die Asimovschen Gesetze sind sicher gundlegend nötig damit das ganze nicht von vornherein in einer Katastrophe endet, aber sie allein sind bei weitem nicht ausreichend bzw. kein Allheilmittel.
    Ein Roboter mit den Asimovschen Gesetzen hat z.B. beim Trolley-Problem dasselbe Dilemma, wie jeder Mensch auch.

  15. Beiträge anzeigen #15 Zitieren
    Deus Avatar von Apubec
    Registriert seit
    Jan 2011
    Beiträge
    10.447
     
    Apubec ist offline
    Zitat Zitat von Matteo Beitrag anzeigen
    Die Asimovschen Gesetze sind sicher gundlegend nötig damit das ganze nicht von vornherein in einer Katastrophe endet, aber sie allein sind bei weitem nicht ausreichend bzw. kein Allheilmittel.
    Ein Roboter mit den Asimovschen Gesetzen hat z.B. beim Trolley-Problem dasselbe Dilemma, wie jeder Mensch auch.
    Vor allem weil sie sich gegenseitig aufheben oder im Wege sind.
    Es gibt kein gut und böse, kein Richtig und kein Falsch, nur Entscheidungen und Konsequenzen.

  16. Beiträge anzeigen #16 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    19.785
     
    Homerclon ist offline
    Zitat Zitat von Matteo Beitrag anzeigen
    Die Asimovschen Gesetze sind sicher gundlegend nötig damit das ganze nicht von vornherein in einer Katastrophe endet, aber sie allein sind bei weitem nicht ausreichend bzw. kein Allheilmittel.
    Ein Roboter mit den Asimovschen Gesetzen hat z.B. beim Trolley-Problem dasselbe Dilemma, wie jeder Mensch auch.
    Eine von Menschenhand programmierte KI, soll also etwas lösen, bei dem es auch für Menschen keine richtige Lösung gibt? Das macht auf mich den Eindruck, als würdest du ein Wunder erwarten. Aber da verstehe ich jetzt etwas falsch, oder?

    Mit dem 0. Gesetz wäre das Trolley-Problem allerdings in 9 von 10 Fällen gelöst.
    Es würde immer die größere Gruppe bevorzugt (ob das immer die richtige Entscheidung ist, darüber lässt sich diskutieren), bzw. wenn möglich, sich selbst geopfert werden.
    Problematisch wirds, wenn Selbstopferung nichts bewirkt / nicht möglich ist, und jede potentielle Opfergruppe die gleiche Anzahl aufweist.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001

  17. Beiträge anzeigen #17 Zitieren
    dann wähle doch deinen sonderrang Avatar von Heinzi
    Registriert seit
    Jul 2007
    Ort
    Aachen
    Beiträge
    13.608
     
    Heinzi ist offline
    Ist doch easy: Im Falle der Unlösbarkeit wird ne Münze geworfen und die KI entscheidet in Sekundenbruchteilen zufällig.

    Bzw ist es nach unserer heutigen Moralvorstellung doch auch so, dass Nicht-Handeln besser als Handeln ist, also wenn ich Person A töten muss, um Person B zu retten, dass dies eben nicht getan wird und man Person B sterben lässt. Ist ja auch die Lösung des Trolley-Problems. Man sollte nichts tun.

    Problematisch würde es ja nur in so nem Szenario wie dem Spiderman-Dilemma, wo man sich aktiv entscheiden muss, wen man rettet, sonst sterben beide (Mary Jane und die Gondel mit den Kindern).
    "wenn ich jmd respektlos behandelt habe warst dass immer nur du" - wahre Freunde!

    Legen Sie das verdammte Eis zurück auf Ihre Zwei-Millionen-Dollar-Hand!
    EDL: Es wird Menschenansammlungen in allen Größenordnungen geben in hinreichender Zahl.
    Mission Impossible mit Heinzi Cruise

  18. Beiträge anzeigen #18 Zitieren

    Faszinierend!
    Avatar von smiloDon
    Registriert seit
    Jan 2007
    Ort
    Tiefer im Westen
    Beiträge
    86.279
     
    smiloDon ist offline
    Zitat Zitat von Heinzi Beitrag anzeigen
    Problematisch würde es ja nur in so nem Szenario wie dem Spiderman-Dilemma, wo man sich aktiv entscheiden muss, wen man rettet, sonst sterben beide (Mary Jane und die Gondel mit den Kindern).
    Im Straßenverkehr wäre ein Option, ein autonomes Fahrzeug so zu bewegen, dass solche Dilemmata erst gar nicht entstehen können. Da würden dann so manchen die Augen aufgehen, wie niedrig eine der Situation angemessene Geschwindigkeit sein wird.

  19. Homepage besuchen Beiträge anzeigen #19 Zitieren
    Deus Avatar von FlashX
    Registriert seit
    Oct 2007
    Ort
    R'lyeh
    Beiträge
    12.706
     
    FlashX ist offline
    Zitat Zitat von Trailerpark Beitrag anzeigen
    Sobald eine A.I. soweit fortgeschritten ist zum absolut menschlich zu agieren
    Werden sie nie. Künstliche Intelligenzen handeln aufgrund von gesammelten Daten und statistischen Modellen. Man könnte argumentieren, dass Menschen das unbewusst auch tun. Allerdings handeln Maschinen durchweg logisch, ohne wie Menschen von Gefühlen, Emotionen und Umwelteinflüssen beinflusst zu werden.
    Damit eine Maschine tatsächlich wie ein Mensch agiert, müsste sie Massen an (privaten) Nachrichtenverläufen ähnlicher Charaktere/Situationen analysieren (zugegeben, im Osten ist das wohl möglich...), aber hier entsprechende Faktoren für menschliches, situationsbedingtes Handeln brauchbar auszulesen, ist beinahe unmöglich.
    ~ That is not dead which can eternal lie
    ~ And with strange aeons even death may die

    We shall swim out to that brooding reef in the sea and dive down through black abysses to Cyclopean and many-columned Y'ha-nthlei,
    and in that lair of the Deep Ones we shall dwell amidst wonder and glory for ever.

  20. Beiträge anzeigen #20 Zitieren
    Ehrengarde Avatar von Supernoxus
    Registriert seit
    May 2009
    Beiträge
    2.571
     
    Supernoxus ist offline
    Zitat Zitat von FlashX Beitrag anzeigen
    Werden sie nie. Künstliche Intelligenzen handeln aufgrund von gesammelten Daten und statistischen Modellen. Man könnte argumentieren, dass Menschen das unbewusst auch tun. Allerdings handeln Maschinen durchweg logisch, ohne wie Menschen von Gefühlen, Emotionen und Umwelteinflüssen beinflusst zu werden.
    Damit eine Maschine tatsächlich wie ein Mensch agiert, müsste sie Massen an (privaten) Nachrichtenverläufen ähnlicher Charaktere/Situationen analysieren (zugegeben, im Osten ist das wohl möglich...), aber hier entsprechende Faktoren für menschliches, situationsbedingtes Handeln brauchbar auszulesen, ist beinahe unmöglich.
    Gefühle und Emotionen sind doch nichts unlogisches, sondern meist nur eine Repräsentation von Zielen. Man ist traurig, weil man nicht bekommt, was man will. Man ist glücklich, weil man etwas geschafft hat. Man ist überrascht, weil etwas unerwartetes passiert, was Aufmerksamkeit verlangt. Man ekelt sich, weil man etwas potentiell gefährlich ist und man dies von sich stoßen muss. Etc.

    Reaktionen auf bestimmte Situationen können gelernt werden. Beispielsweise kann ein Mensch existielle Angst und Panik bekommen, wenn dieser einen roten Kaffeebecher sieht, weil er nun mal nach dem Trinken aus so einem Becher brutal zusammengeschlagen und vergewaltigt wurde.

    Gibt man einer Maschine die Fähigkeit, dass sie bestimmte Situationen als positiv oder negativ für sich einstuft und deren Verhalten nach dieser Einstufung richtet, dann hat man bereits eine simple Art von Emotion eingebaut. Ich glaube so ziemlich alle modernen Maschinenlernalgorythmen arbeiten mit solchen System, die falsche Resultate "bestrafen", was dazu führt, dass die Maschine das Verhalten nicht mehr zeigt, während richtige Resultate "belohnen", was dazu führt, dass die Maschine das Verhalten weiterhin zeigt.

    Wenn eine Maschine bei einer Aktion mit einem roten Kaffeebecher eine extreme negative Rückmeldung an das System erfährt, dann ist es ebenso möglich, dass es lernt, dass das Zeichen "roter Kaffeebecher" einem negativen Ergebnis folgt, und daher sofort eine 180° Drehung der momentanen Operation benötigt, was möglicherweise für Außenstehende wenig logisch erscheint, da die Maschine nicht hinreichend mit verschiedenen Situationen zu tun gehabt hat um zu lernen, dass der rote Kaffeebecher keine Vorhersagekraft hat.

    Die Gefühle sind wahrscheinlich nicht so wie Menschen sie haben, aber für die Maschine sind sie bestimmt real genug um ihr Verhalten entsprechend zu steuern.

    Wenn man Maschinen wirklich wie Menschen werden zu lassen, müsste man aber wahrscheinlich auch einige spezifische Dinge reinkodieren. Wie z. B. ein Verlangen nach Gemeinschaft und Akzeptanz.

Seite 1 von 2 12 Letzte »

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
Impressum | Link Us | intern
World of Gothic © by World of Gothic Team
Gothic, Gothic 2 & Gothic 3 are © by Piranha Bytes & Egmont Interactive & JoWooD Productions AG, all rights reserved worldwide