Die Waffenbildung der künstlichen Intelligenz



<div _ngcontent-c14 = "" innerhtml = "

Die Realität des Aufstiegs autonomer WaffensystemeDepositphotos verbessert durch CogWorld

Einführung

Die technologische Entwicklung ist zu einem Rattenrennen geworden. Künstliche Intelligenz (KI) wird im Wettbewerb um die Führung des aufstrebenden Technologierennens und des futuristischen Kriegsschauplatzes schnell zum Zentrum des globalen Machtspiels. Wie in vielen Ländern zu sehen ist, schreitet die Entwicklung im autonomen Waffensystem (AWS) rasant voran, und diese Zunahme der Waffenbewaffnung künstlicher Intelligenz scheint zu einer äußerst destabilisierenden Entwicklung geworden zu sein. Sie bringt komplexe Sicherheitsherausforderungen für die Entscheidungsträger jedes Landes und auch für die Zukunft der Menschheit mit sich.

Die Realität von heute ist, dass künstliche Intelligenz uns zu einem neuen Schlachtfeld mit algorithmischen Gefechten führt, das keine Grenzen oder Grenzen hat, Menschen involviert sein kann oder nicht, und es wird unmöglich sein, das gesamte menschliche Ökosystem im Cyberspace, Geospace und Raum zu verstehen und zu kontrollieren (CGS). Die Idee der Waffe künstlicher Intelligenz besteht darin, dass ein Waffensystem, das einmal über CGS aktiviert wurde, menschliche und nicht menschliche Ziele ohne weiteres Eingreifen eines menschlichen Designers oder Bedieners auswählen und einsetzen kann große Angst verursachen.

Der Gedanke einer intelligenten Maschine oder Maschinenintelligenz, die in der Lage ist, jede geplante Kriegsführungsaufgabe ohne menschliches Eingreifen und Eingreifen – nur unter Verwendung der eingebetteten Sensoren, Computerprogrammierung und Algorithmen in der menschlichen Umgebung und im Ökosystem – auszuführen, ist der Gedanke Wirklichkeit werden das kann nicht mehr ignoriert werden.

Waffenbildung der künstlichen Intelligenz

Da sich KI, maschinelles Lernen und tiefes Lernen weiterentwickeln und vom Konzept zur Kommerzialisierung übergehen, führt die schnelle Beschleunigung von Rechenleistung, Speicher, Big Data und Hochgeschwindigkeitskommunikation nicht nur zu Innovation, Investitionen und Anwendungsrausch, sondern verstärkt auch die Suche für AI-Chips. Diese fortlaufender schneller Fortschritt und Entwicklung bedeuten, dass künstliche Intelligenz auf dem Weg ist, die Kriegsführung zu revolutionieren, und dass die Nationen zweifellos das automatisierte Waffensystem weiterentwickeln werden, das die KI ermöglichen wird.

Wenn Nationen einzeln und gemeinsam ihre Bemühungen um einen Wettbewerbsvorteil in Wissenschaft und Technologie beschleunigen, ist die weitere Bewaffnung der KI unumgänglich. Dementsprechend ist es notwendig, sich vorzustellen, wie ein algorithmischer Krieg von morgen aussehen würde, denn der Bau autonomer Waffensysteme ist eine Sache, aber der Einsatz in algorithmischer Kriegsführung mit anderen Nationen und gegen andere Menschen ist eine andere.

Wie Berichte sind bereits auftauchen In Bezug auf komplexe algorithmische Systeme, die immer mehr Aspekte der Kriegsführung in CGS unterstützen, ist die Kommerzialisierung der KI jetzt Realität. Wie im Cyberspace zu sehen ist, hat die automatisierte Kriegsführung (Cyber-Krieg) geführt schon begonnen – wo jeder und jeder ein Ziel ist. Also, was kommt als nächstes, Geokrieg und Weltraumkrieg? Und wer und was wird das Ziel sein?

Die rasche Entwicklung der KI-Waffe ist auf der ganzen Linie offensichtlich: navigieren und unbemannte Marine einsetzen, Luft- und Geländefahrzeuge, die Schätzungen für Kollateralschaden erstellen, Einsatz von Fire-and-Forget-Raketensystemen und die Verwendung von stationären Systemen zur Automatisierung von Personalanlagen und der Wartung der Ausrüstung bis zum Einsatz von Überwachungsdrohnen. Roboter und mehr sind alle Beispiele. Wenn Algorithmen immer mehr Aspekte des Krieges unterstützen, führt dies zu einer wichtigen Frage: Welche Anwendungen der KI im heutigen und zukünftigen Krieg sollten erlaubt, eingeschränkt und absolut verboten sein?

Autonome Waffensysteme bieten zwar Möglichkeiten, die Betriebskosten von Waffensystemen zu senken – insbesondere durch effizienteren Einsatz von Arbeitskräften – und werden wahrscheinlich Waffensysteme in die Lage versetzen, eine höhere Geschwindigkeit, Genauigkeit, Persistenz, Präzision, Reichweite und Koordination zu erreichen Auf dem Schlachtfeld der CGS besteht nach wie vor die Notwendigkeit, die technologischen, rechtlichen, wirtschaftlichen, gesellschaftlichen und Sicherheitsfragen zu verstehen und zu bewerten.

Rolle von Programmierern und Programmierung

Inmitten dieser komplexen Sicherheitsherausforderungen und dem Meer der Unbekannten, das auf uns zukommt, bleibt das grundlegende Element für die Sicherheit der menschlichen Rasse die Rolle des Programmierers und der Programmierung zusammen mit der Integrität von Halbleiterchips. Der Grund dafür ist, dass Programmierer die Art von AWS (zumindest zu Beginn) definieren und bestimmen können, bis die KI beginnt, sich selbst zu programmieren.

Wenn jedoch ein Programmierer, der absichtlich oder versehentlich eine autonome Waffe programmiert, um gegen das gegenwärtige und zukünftige humanitäre Völkerrecht (IHL) zu verstoßen, wie werden die Menschen die Waffe der KI kontrollieren? Außerdem, wo AWS sich auf Software konzentriert, wo sollte die Verantwortung für Fehler und die Manipulation des Designs und der Verwendung von AWS-Systemen liegen? Das bringt uns zum Kern der Frage – wann und wann ein autonomes System tötet, wer ist für das Töten verantwortlich, unabhängig davon, ob es gerechtfertigt ist oder nicht?

Cyber-Security-Herausforderungen

Kurz gesagt, Algorithmen sind keineswegs sicher – und sie sind auch nicht immun gegen Fehler, Malware, Beeinflussung und Manipulation. Und was passiert, wenn maschinelles Lernen Maschinen verwendet, um andere Maschinen zu trainieren, wenn es Malware oder eine Manipulation der Trainingsdaten gibt? Während Sicherheitsrisiken überall bestehen, erhöhen vernetzte Geräte die Möglichkeit von Cyber-Sicherheitsverletzungen von entfernten Standorten aus. Da der Code undurchsichtig ist, ist die Sicherheit sehr komplex. Wenn also die KI mit anderen KI in den Krieg zieht (unabhängig davon, ob es sich um Cyber-Sicherheit, Geo-Sicherheit oder Weltraum-Sicherheit handelt), werden die anhaltenden Herausforderungen der Cyber-Sicherheit die Zukunft der Menschheit und des menschlichen Ökosystems in der CGS enorm beeinträchtigen.

Während es scheint, dass autonome Waffensysteme bestehen bleiben, ist die Frage, die wir alle einzeln und gemeinsam beantworten müssen, die künstliche Intelligenz, die unsere Überlebens- und Sicherheitsstrategie bestimmt, oder werden wir dies tun?

In Anerkennung dieser aufkommenden Realität initiierte die Risk Group die dringend benötigte Diskussion über autonome Waffensysteme mit Markus Wagner, einem veröffentlichten Autor und Associate Professor für Rechtswissenschaften an der University of Wollongong in Australien.

Offenlegung: Risk Group LLC ist meine Firma

Die Risikogruppe diskutiert das autonome Waffensystem und das Jura-Recht mit Markus Wagner, einem veröffentlichten Autor und Dozent für Rechtswissenschaften an der University of Wollongong in Australien, in dem es um Risk Roundup geht.

Was kommt als nächstes?

Da die Nationen einzeln und gemeinsam ihre Bemühungen um einen Wettbewerbsvorteil in Wissenschaft und Technologie beschleunigen, ist eine weitere Bewaffnung der KI unumgänglich. Infolgedessen würde die Positionierung von AWS die Bedeutung von Mensch zu Mensch verändern und in gewisser Weise die Grundlagen der Sicherheit und der Zukunft der Menschheit und des Friedens verändern.

Es ist wichtig zu verstehen und zu bewerten, ob das autonome Wettrüsten nicht verhindert werden kann, was schief gehen könnte. Es ist an der Zeit, die Tatsache anzuerkennen, dass allein aufgrund der Tatsache, dass Technologie die erfolgreiche Entwicklung von AWS ermöglicht, dies nicht bedeutet, dass wir dies tun sollten. Es ist vielleicht nicht im Interesse der Menschheit, künstliche Intelligenz zu bewaffnen! Es ist Zeit für eine Pause.

">

Die Realität des Aufstiegs autonomer WaffensystemeDepositphotos verbessert durch CogWorld

Einführung

Die technologische Entwicklung ist zu einem Rattenrennen geworden. Künstliche Intelligenz (KI) wird im Wettbewerb um die Führung des aufstrebenden Technologierennens und des futuristischen Kriegsschauplatzes schnell zum Zentrum des globalen Machtspiels. Wie in vielen Ländern zu sehen ist, schreitet die Entwicklung im autonomen Waffensystem (AWS) rasant voran, und diese Zunahme der Waffenbewaffnung künstlicher Intelligenz scheint zu einer äußerst destabilisierenden Entwicklung geworden zu sein. Sie bringt komplexe Sicherheitsherausforderungen für die Entscheidungsträger jedes Landes und auch für die Zukunft der Menschheit mit sich.

Die Realität von heute ist, dass künstliche Intelligenz uns zu einem neuen Schlachtfeld mit algorithmischen Gefechten führt, das keine Grenzen oder Grenzen hat, Menschen involviert sein kann oder nicht, und es wird unmöglich sein, das gesamte menschliche Ökosystem im Cyberspace, Geospace und Raum zu verstehen und zu kontrollieren (CGS). Die Idee der Waffe künstlicher Intelligenz besteht darin, dass ein Waffensystem, das einmal über CGS aktiviert wurde, menschliche und nicht menschliche Ziele ohne weiteres Eingreifen eines menschlichen Designers oder Bedieners auswählen und einsetzen kann große Angst verursachen.

Der Gedanke einer intelligenten Maschine oder Maschinenintelligenz, die in der Lage ist, jede geplante Kriegsführungsaufgabe ohne menschliches Eingreifen und Eingreifen – nur unter Verwendung der eingebetteten Sensoren, Computerprogrammierung und Algorithmen in der menschlichen Umgebung und im Ökosystem – auszuführen, ist der Gedanke Wirklichkeit werden das kann nicht mehr ignoriert werden.

Waffenbildung der künstlichen Intelligenz

Da sich KI, maschinelles Lernen und tiefes Lernen weiterentwickeln und vom Konzept zur Kommerzialisierung übergehen, führt die schnelle Beschleunigung von Rechenleistung, Speicher, Big Data und Hochgeschwindigkeitskommunikation nicht nur zu Innovation, Investitionen und Anwendungsrausch, sondern verstärkt auch die Suche für AI-Chips. Diese fortlaufender schneller Fortschritt und Entwicklung bedeuten, dass künstliche Intelligenz auf dem Weg ist, die Kriegsführung zu revolutionieren, und dass die Nationen zweifellos das automatisierte Waffensystem weiterentwickeln werden, das die KI ermöglichen wird.

Wenn Nationen einzeln und gemeinsam ihre Bemühungen um einen Wettbewerbsvorteil in Wissenschaft und Technologie beschleunigen, ist die weitere Bewaffnung der KI unumgänglich. Dementsprechend ist es notwendig, sich vorzustellen, wie ein algorithmischer Krieg von morgen aussehen würde, denn der Bau autonomer Waffensysteme ist eine Sache, aber der Einsatz in algorithmischer Kriegsführung mit anderen Nationen und gegen andere Menschen ist eine andere.

Wie Berichte sind bereits auftauchen In Bezug auf komplexe algorithmische Systeme, die immer mehr Aspekte der Kriegsführung in CGS unterstützen, ist die Kommerzialisierung der KI jetzt Realität. Wie im Cyberspace zu sehen ist, hat die automatisierte Kriegsführung (Cyber-Krieg) geführt schon begonnen – wo jeder und jeder ein Ziel ist. Also, was kommt als nächstes, Geokrieg und Weltraumkrieg? Und wer und was wird das Ziel sein?

Die rasche Entwicklung der KI-Waffe ist auf der ganzen Linie offensichtlich: navigieren und unbemannte Marine einsetzen, Luft- und Geländefahrzeuge, die Kollateralschadenschätzungen erstellen, Einsatz von Fire-and-Forget-Raketensystemen und die Verwendung von stationären Systemen zur Automatisierung von Personalanlagen und der Wartung der Ausrüstung bis zum Einsatz von Überwachungsdrohnen. Roboter und mehr sind alle Beispiele. Wenn Algorithmen immer mehr Aspekte des Krieges unterstützen, führt dies zu einer wichtigen Frage: Welche Anwendungen der KI im heutigen und zukünftigen Krieg sollten erlaubt, eingeschränkt und absolut verboten sein?

Autonome Waffensysteme bieten zwar Möglichkeiten, die Betriebskosten von Waffensystemen zu senken – insbesondere durch effizienteren Einsatz von Arbeitskräften – und werden wahrscheinlich Waffensysteme in die Lage versetzen, eine höhere Geschwindigkeit, Genauigkeit, Persistenz, Präzision, Reichweite und Koordination zu erreichen Auf dem Schlachtfeld der CGS besteht nach wie vor die Notwendigkeit, die technologischen, rechtlichen, wirtschaftlichen, gesellschaftlichen und Sicherheitsfragen zu verstehen und zu bewerten.

Rolle von Programmierern und Programmierung

Inmitten dieser komplexen Sicherheitsherausforderungen und dem Meer der Unbekannten, das auf uns zukommt, bleibt das grundlegende Element für die Sicherheit der menschlichen Rasse die Rolle des Programmierers und der Programmierung zusammen mit der Integrität von Halbleiterchips. Der Grund dafür ist, dass Programmierer die Art von AWS (zumindest zu Beginn) definieren und bestimmen können, bis die KI beginnt, sich selbst zu programmieren.

Wenn jedoch ein Programmierer, der absichtlich oder versehentlich eine autonome Waffe programmiert, um gegen das gegenwärtige und zukünftige humanitäre Völkerrecht (IHL) zu verstoßen, wie werden die Menschen die Waffe der KI kontrollieren? Außerdem, wo AWS sich auf Software konzentriert, wo sollte die Verantwortung für Fehler und die Manipulation des Designs und der Verwendung von AWS-Systemen liegen? Das bringt uns zum Kern der Frage – wann und wann ein autonomes System tötet, wer ist für das Töten verantwortlich, unabhängig davon, ob es gerechtfertigt ist oder nicht?

Cyber-Security-Herausforderungen

Kurz gesagt, Algorithmen sind keineswegs sicher – und sie sind auch nicht immun gegen Fehler, Malware, Beeinflussung und Manipulation. Und was passiert, wenn maschinelles Lernen Maschinen verwendet, um andere Maschinen zu trainieren, wenn es Malware oder eine Manipulation der Trainingsdaten gibt? Während Sicherheitsrisiken überall bestehen, erhöhen vernetzte Geräte die Möglichkeit von Cyber-Sicherheitsverletzungen von entfernten Standorten aus. Da der Code undurchsichtig ist, ist die Sicherheit sehr komplex. Wenn also die KI mit anderen KI in den Krieg zieht (unabhängig davon, ob es sich um Cyber-Sicherheit, Geo-Sicherheit oder Weltraum-Sicherheit handelt), werden die anhaltenden Herausforderungen der Cyber-Sicherheit die Zukunft der Menschheit und des menschlichen Ökosystems in der CGS enorm beeinträchtigen.

Während es scheint, dass autonome Waffensysteme bestehen bleiben, ist die Frage, die wir alle einzeln und gemeinsam beantworten müssen, die künstliche Intelligenz, die unsere Überlebens- und Sicherheitsstrategie bestimmt, oder werden wir dies tun?

In Anerkennung dieser aufkommenden Realität initiierte die Risk Group die dringend benötigte Diskussion über autonome Waffensysteme mit Markus Wagner, einem veröffentlichten Autor und Associate Professor für Rechtswissenschaften an der University of Wollongong in Australien.

Offenlegung: Risk Group LLC ist meine Firma

Die Risikogruppe diskutiert das autonome Waffensystem und das Jura-Recht mit Markus Wagner, einem veröffentlichten Autor und Dozent für Rechtswissenschaften an der University of Wollongong in Australien, in dem es um Risk Roundup geht.

Was kommt als nächstes?

Da die Nationen einzeln und gemeinsam ihre Bemühungen um einen Wettbewerbsvorteil in Wissenschaft und Technologie beschleunigen, ist eine weitere Bewaffnung der KI unumgänglich. Infolgedessen würde die Positionierung von AWS die Bedeutung des Menschen als Mensch verändern und in gewisser Weise die Grundlagen der Sicherheit und der Zukunft der Menschheit und des Friedens verändern.

Es ist wichtig zu verstehen und zu bewerten, ob das autonome Wettrüsten nicht verhindert werden kann, was schief gehen könnte. Es ist an der Zeit, die Tatsache anzuerkennen, dass allein aufgrund der Tatsache, dass Technologie die erfolgreiche Entwicklung von AWS ermöglicht, dies nicht bedeutet, dass wir dies tun sollten. Es ist vielleicht nicht im Interesse der Menschheit, künstliche Intelligenz zu bewaffnen! Es ist Zeit für eine Pause.