Eine südkoreanische Universität experimentiert mit Killerrobotern, die Menschen erkennen

Sie wissen, wie es ist: Sie studieren, erhalten ein Forschungsstipendium, sehen ein paar Terminatorbewegungen. Der nächste logische Schritt ist das Erstellen von Killerbots. Duh.

Gestern wurde bekannt, dass das koreanische Advanced Institute of Science und Technology (KAIST) eine Partnerschaft mit dem Verteidigungshersteller Hanwha Systems eingegangen ist - eine Entscheidung, die Wissenschaftler weltweit kritisiert haben.

Ein Boykottbrief, der von mehr als 50 Professoren unterzeichnet wurde, wird von Toby Walsh, einem Professor an der University of New South Wales, angeführt Der Wächter, "Die Entwicklung autonomer Waffen würde die Sicherheitslage auf der koreanischen Halbinsel verschlimmern.".

Er geht davon aus, dass die Partnerschaft das Wettrüsten mit künstlicher Intelligenz beschleunigen wird. "Es gibt viele großartige Dinge, die Sie mit KI tun können, um Leben zu retten, auch im militärischen Kontext. Wenn Sie jedoch offen erklären, dass es das Ziel ist, autonome Waffen zu entwickeln und einen solchen Partner zu haben, ist das ein großes Problem."

"Dies ist eine sehr angesehene Universität, die mit einem sehr ethisch zweifelhaften Partner zusammenarbeitet, der weiterhin gegen internationale Normen verstößt."

Der Präsident der Südkoreanischen Universität protestierte dagegen und erklärte, dass "KAIST keine Absicht hat, sich mit der Entwicklung tödlicher autonomer Waffensysteme und Killerroboter zu beschäftigen"..

"Ich bekräftige noch einmal, dass KAIST keine Forschungsaktivitäten gegen die Menschenwürde durchführen wird, einschließlich autonomer Waffen, denen es an sinnvoller menschlicher Kontrolle fehlt."

Er behauptet, der Zweck der Partnerschaft sei es, „eine starke Grundlage für die Entwicklung nationaler Verteidigungstechnologien zu schaffen“, wie „KI-basierte Befehls- und Entscheidungssysteme, zusammengesetzte Navigationsalgorithmen für unbemannte Unterwasserfahrzeuge im Mega-Maßstab, KI-basierte intelligente Flugzeugschulungssysteme, und KI-basierte intelligente Objektverfolgungs- und -erkennungstechnologie. “

Die oben genannte Verwendung von KI klingt ziemlich vernünftig - sogar nützlich - wenn dies jedoch das Ziel ist, zählt die Entscheidung der Universität, mit einem Waffenhersteller zusammenzuarbeiten, nicht.

Und wenn dann Waffentechnologie hergestellt wird, wie Professor Walsh darauf hingewiesen hat Der Wächter, "Irgendwann würden sie sicherlich in Nordkorea auftauchen - und sie hätten keine Skrupel, sie gegen den Süden einzusetzen. “