Googles hat jetzt eine Robot Constitution – aber wo ist sie?
Es werden zur Zeit ja auch spannende Fortschritte im Bereich einer neuen Generation von Robotern veröffentlicht. Transformer erobern jetzt auch die physische Welt. Oder wie ich vor einiger Zeit schon schrieb, ist das Thema Large Behavior Models wie Toyota sie entwickelt und nennt hochspannend. Besonders im Bereich der AGI Diskussion wir immer wieder angeführt, dass die bisherige Ki ja keine Verbindung/ Sensorik zur physischen Welt hat.
Auch Google arbeitet eifrig im Bereich Ki und Robotik.
Die Entwicklung AutoRT verbindet Large Vision und Large Language Models in einem großen System.
Das RT-2 Modell beschleunigt die Entscheidungsfindung und erzielt bessere Ergebnisse in einer Reihe von Roboteraufgaben. RT-Trajectory hilft dabei Roboterbewegungen mit Trainingsdaten zu verbinden, die die Trajektoren (Geometrischen Bewegungsabläufe) zu generalisieren.
Nun stieß ich vor kurzem in der Pressemitteilung von GoogleDeepmind auf einen Abschnitt, den ich sehr bemerkenswert fand, denn anscheinend hat Google eine Robot Constitution erschaffen und sich an den Regeln von Asimov orientiert:
„It features safety guardrails, one of which is providing its LLM-based decision-maker with a Robot Constitution – a set of safety-focused prompts to abide by when selecting tasks for the robots. These rules are in part inspired by Isaac Asimov’s Three Laws of Robotics – first and foremost that a robot “may not injure a human being”. Further safety rules require that no robot attempts tasks involving humans, animals, sharp objects or electrical appliances.“
Kurioserweise beschreiben ja Asimovs Bücher Konflikte und Probleme, die durch diese Regeln auftauchen.
Hier nochmal die Asimovschen Gesetzte zum nachlesen:
1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Nun bin ich neugierig darauf, wie es GoogleDeepmind geschafft hat, die Widersprüche und Konflikte die Asimov in seinen Büchern beschreibt durch seine Constitution aufzulösen.