Google und Microsoft warnen, dass AI dumme Dinge tun kann


Google CEO Sundar Pichai hat den Anlegern in der vergangenen Woche eine gute Nachricht über die Gewinne der Muttergesellschaft Alphabet gegeben. Alphabet erzielte im letzten Quartal einen Umsatz von 39,3 Milliarden US-Dollar, ein Plus von 22 Prozent gegenüber dem Vorjahr. Pichai verdankte die maschinelle Lerntechnologie von Google und erklärte, es sei herausgefunden worden, wie die Anzeigen den Wünschen der Konsumenten besser angepasst werden könnten.

Eines erwähnte Pichai nicht: Alphabet warnt Investoren nun vor der gleichen KI-Technologie, die ethische und rechtliche Probleme für das Unternehmen verursachen könnte. Die Warnung wurde zum ersten Mal im Segment "Risikofaktoren" des jüngsten Jahresberichts von Alphabet veröffentlicht, der am folgenden Tag bei der Securities and Exchange Commission eingereicht wurde:

Neue Produkte und Dienstleistungen, einschließlich solcher, die künstliche Intelligenz und maschinelles Lernen enthalten oder nutzen, können neue ethische, technologische, rechtliche und andere Herausforderungen schaffen oder verstärken, die sich negativ auf unsere Marken und die Nachfrage nach unseren Produkten und Dienstleistungen und auf unsere Produkte auswirken können Umsatz und Betriebsergebnis.

Die Unternehmen müssen den Risikofaktoren-Anteil ihrer Jahresmeldungen verwenden, um den Investoren vorhersehbare Probleme mitzuteilen. Das soll den freien Markt am Laufen halten. Darüber hinaus können Unternehmen Klagen, bei denen das Management potenzielle Probleme verdeckt, entschärft werden.

Es ist nicht klar, warum sich die Wertpapierrechtsanwälte von Alphabet entschieden haben, Investoren vor den Risiken intelligenter Maschinen zu warnen. Google lehnte es ab, auf seine öffentlichen Einreichungen einzugehen. Das Unternehmen hat 2009 mit dem Test von selbstfahrenden Autos auf öffentlichen Straßen begonnen und veröffentlicht seit mehreren Jahren Forschungsarbeiten zu ethischen Fragen, die von AI aufgeworfen wurden.

Alphabet positioniert sich gerne als führend in der KI-Forschung, war aber sechs Monate hinter dem Rivalen Microsoft in der Warnung der Anleger vor den ethischen Risiken der Technologie. Die Offenlegung der KI in der neuesten Google-Anmeldung liest sich wie eine heruntergefahrenere Version von viel ausführlicherer Sprache, die Microsoft in seinem letzten SEC-Jahresbericht veröffentlicht hat, der im letzten August eingereicht wurde:

AI-Algorithmen sind möglicherweise fehlerhaft. Datensätze können unzureichend sein oder voreingenommene Informationen enthalten. Unangemessene oder umstrittene Datenpraktiken von Microsoft oder anderen könnten die Akzeptanz von AI-Lösungen beeinträchtigen. Diese Mängel könnten die Entscheidungen, Vorhersagen oder die Analyse von KI-Anwendungen beeinträchtigen und uns Wettbewerbsschäden, Rechtsverpflichtungen und Marken- oder Reputationsschäden zufügen.

Microsoft investiert seit vielen Jahren intensiv in die KI und hat 2016 ein internes KI-Ethik-Board eingeführt, das einige Verträge blockiert hat, von denen angenommen wird, dass sie eine unangemessene Nutzung der Technologie riskieren.

Microsoft hat nicht auf Fragen zum Zeitpunkt der Offenlegung des Potenzials für gefährliche KI geantwortet. Sowohl Microsoft als auch Alphabet spielten in jüngster Zeit eine wichtige Rolle bei der Besorgnis und der Erforschung ethischer Herausforderungen durch künstliche Intelligenz. Beide haben sie bereits hautnah erlebt.

Im vergangenen Jahr stellten die Forscher fest, dass der Cloud-Service von Microsoft bei der Ermittlung des Geschlechts schwarzer Frauen viel weniger genau war als bei weißen Männern in Fotos. Das Unternehmen entschuldigte sich und sagte, es habe das Problem behoben. Mitarbeiterproteste bei Google zwangen das Unternehmen, einen Pentagon-Vertrag zur Anwendung von KI auf Drohnenüberwachungsmaterial zu beenden, und es hat seinen eigenen Fotoservice gezwungen, in Benutzeraufnahmen nach einem Vorfall zu suchen, bei dem schwarze Menschen mit Gorillas verwechselt wurden.

Die neuen Offenlegungen von Microsoft und Google könnten dunkel erscheinen. Bei den SEC-Akten handelt es sich um Dokumente, die in einem speziellen und reichlich unterklauselten juristischen Dialekt verfasst sind. Dennoch, so David Larcker, Direktor der Corporate-Governance-Forschungsinitiative von Stanford, sind die neuen Anerkennungen der damit verbundenen Risiken von AI wahrscheinlich bemerkt worden. "Die Leute schauen sich diese Dinge an", sagt er.

Investoren und Wettbewerber analysieren Risikofaktoren, um ein Gefühl dafür zu bekommen, was das Management im Kopf hat, so Larcker. Viele Elemente werden so häufig aufgeführt, beispielsweise die Risiken einer Konjunkturabkühlung, dass sie mehr oder weniger bedeutungslos sind. Unterschiede zwischen Unternehmen oder ungewöhnlichen Gegenständen wie ethische Herausforderungen durch künstliche Intelligenz können informativer sein.

Einige Unternehmen, die behaupten, dass ihre Zukunft stark von KI abhängt, und maschinelles Lernen führen in ihren Offenlegungen der SEC keine unbeabsichtigten Auswirkungen dieser Technologien auf. Im jüngsten Jahresbericht von IBM für 2017 behauptet das Unternehmen, dass es „den aufstrebenden Markt für Softwarelösungen mit künstlicher Intelligenz anführt“ und gleichzeitig Vorreiter in Sachen „Datenverantwortung, Ethik und Transparenz“ ist mit KI oder maschinellem Lernen. IBM hat auf eine Anfrage nicht reagiert. Die nächste jährliche Hinterlegung des Unternehmens ist in den nächsten Wochen fällig.

Amazon, das sich in Bereichen wie dem Sprachassistenten Alexa und Warehouse-Robotern auf AI stützt, hat in seinem Anfang dieses Monats vorgelegten Jahresbericht die künstliche Intelligenz in den Risikofaktoren erwähnt. Im Gegensatz zu Google und Microsoft lädt das Unternehmen die Anleger jedoch nicht dazu ein, sich Gedanken darüber zu machen, wie ihre Algorithmen voreingenommen oder unethisch sein könnten. Amazon befürchtet, dass die Regierung geschäftsunfreundliche Regeln für die Technologie einstellt.

Unter der Überschrift "Die Regulierung der Regierung entwickelt sich und ungünstige Veränderungen könnten unserem Geschäft schaden", schrieb Amazon: "Es ist nicht klar, wie geltende Gesetze zu Eigentumsfragen, Verleumdung, Datenschutz und Persönlichkeitsschutz für das Internet gelten. Handel, digitaler Inhalt, Webdienste und Technologien und Dienstleistungen für künstliche Intelligenz. “

Ironischerweise lud Amazon am Donnerstag ein paar Regierungsregeln zur Gesichtserkennung ein, eine Technologie, die es den Strafverfolgungsbehörden zur Seite gestellt hat, unter Hinweis auf die Gefahr des Missbrauchs. Amazon hat nicht auf eine Anfrage nach einem Kommentar geantwortet, warum Anleger der Meinung sind, dass Anleger über regulatorische, aber nicht über ethische Unsicherheiten in der KI wissen müssen. Diese Einschätzung kann sich mit der Zeit ändern.

Larcker ist der Ansicht, dass neue Geschäftspraktiken und Technologien immer wichtiger werden und in vielen Unternehmen zu Risikopositionen führen. Cybersicherheit, die in SEC-Akten selten vorkam; jetzt erwähnt, ist es pro forma. AI könnte als nächstes kommen. "Ich denke, es ist eine Art natürlicher Fortschritt", sagt Larcker.


Weitere großartige WIRED Stories