Eine App, die für Hurrikan Harvey gebaut wurde, rettet jetzt Leben in Florida


Letzter Mittwoch, Hurrikan Michael schlug mit 155 Meilen pro Stunde in den Florida Panhandle ein, verflachte Stadtviertel, verwandelte Unterteilungen in Trümmer und stürzte die Küste in Dunkelheit. Am Freitag packte Trevor Lewis zwei Lastwagen mit Brecheisen, Kettensägen, Vorschlaghämmern, Seilen, Walkie-Talkies und fünf anderen Jungs aus Cocoa Beach, wo er auf der Ostseite des Staates lebt. Als die Nacht hereinbrach, begannen sie mit der Fahrt in das schlimmste Wrack. Am Samstag um 4 Uhr morgens reagierten sie auf ihren ersten Hilferuf.

Lewis leitet eine selbstfinanzierte Such- und Rettungseinheit, die aus Off-Duty-Polizisten, Feuerwehrleuten und EMTs besteht. Sie nennen sich selbst "Salty Water Rescue Services" und die meisten von ihnen haben ein spezielles Notfalltraining auf der Hochgeschwindigkeits-Motorboot-Rennstrecke vor Cocoa Beach. Sie sind eine von Hunderten von freiwilligen Crews, die nach Michael erschienen sind, um Ersthelfern zu helfen, die von Notrufen überwältigt wurden.

Sie benutzten als Leitfaden einen Dienst namens Crowdsource Rescue oder CSR, der auf einer Karte Personen zeigte, die Hilfe brauchen könnten. Bei einem Besuch von Salty Water traf die Crew eine Frau, deren Haus ein Gasleck hatte, also rief Lewis die örtlichen Behörden an. "Es ist ein unheimliches Gefühl, diese Nummer zu wählen und zu denken, dass jemand kommen wird, und es geht direkt zu einem Besetztzeichen", sagt er. Die Familie der Frau hatte CSR verwendet, um einen Wellness-Check für ihren Verwandten zu beantragen.

Die Idee hinter CSR begann einfach: sammle Anrufe für Hilfe in sozialen Medien, lokalisierte sie und leitete Freiwillige zu den notleidenden Parteien. Grundsätzlich Uber für Notfälle. Es war ein einfaches Konzept, das ein Paar Entwickler namens Matthew Marchetti und Nate Larson in Houston im letzten August in etwa sechs feuchten Stunden zusammenhackten, während Hurricane Harvey draußen heulte. Sie erwarteten, dass es einigen Familien in ihrer schnell überfluteten Nachbarschaft helfen würde. Als der Sturm vorüber war, sagte Marchetti, dass mindestens 25.000 Menschen mit dem Webservice erreicht worden seien.

Stellt sich heraus, Armeen spontaner Samariter können viel mehr getan werden, wenn Technologie ihnen sagt, wohin man geht. "Die Freiwilligen werden sich zeigen, egal was", sagt Marchetti. "Wir versuchen nur, sie zu befähigen, mehr Menschen sicher und effektiver zu finden."

Was als einmaliger Sprint für karitative Kodierungen begann, hat sich seitdem zu einem freiwilligen Missionskontrollzentrum für fünf Personen entwickelt. Marchetti und Larson bauten in ihren täglichen Jobs bei einer Immobilienfirma Karten. Und das war im Grunde die erste Version von CSR. Aber als weitere Hurrikane Ende 2017 die USA in rascher Folge erschütterten – zuerst Irma, dann Maria – stapelten sich die beiden auf neue Features, als Probleme in Echtzeit auftraten. "Wir würden etwas auf der Website ändern, während 60.000 Menschen es nutzten, und wenn sie es nicht mochten, ließen sie uns wissen", sagt Marchetti. "Wir hatten keinen Masterplan. Es war alles nur reaktionär. "

Im Januar, als die Hurrikansaison zu Ende war, fanden sie Zeit für ein durchdachteres Redesign. Die neueste Version, die zwei Wochen vor Florence Hit veröffentlicht wurde, enthält eine mobile App und neue Sicherheitsvorkehrungen. Es ermöglicht dem Benutzer, Gefahren wie abgestürzte Stromleitungen, verwaschene Straßen und sich schnell bewegendes Wasser zu markieren. Es gibt CSR auch die Flexibilität, Bereiche abzusperren, die von Notfallmanagern als gefährlich für Zivilisten deklariert wurden, so dass Freiwillige ohne angemessene Ausbildung keine Hilfeanfragen in diesen Bereichen sehen können. Diese Vorkehrungen sollen verhindern, dass freiwillige Helfer sich selbst retten müssen.

Das ist weniger wichtig für Freiwillige wie Lewis 'Salty Water Crew, die CSR zum ersten Mal in Florenz eingesetzt haben, aber in tückischen Gewässern nicht fremd sind. Nach dem Sturm im September fuhren sieben ihrer Typen mit einem Flachbodenboot und zwei getunten Jetskis mit Rettungsschlitten auf dem Rücken nach North Carolina. Im Laufe von ein paar schlaflosen Tagen haben sie fast 100 Leute eingecheckt, Proviant geliefert, Nachrichten an ihre Lieben weitergeleitet und den unglücklichsten Wenigen geholfen, sich in Sicherheit zu bringen, inklusive etwa einem Dutzend zitternder Haustiere.

Auf der langen Fahrt zurück nach Cocoa Beach beschlossen sie, sich formell der Crowdsource-Plattform anzuschließen. Aber als Michael zwei Monate später mit seinen starken Winden der Kategorie 4 ankam, hatten Lewis und seine Teamkollegen den größten Teil ihrer Urlaubszeit damit verbracht, auf Florence zu reagieren, so dass sie nur vier Tage bleiben konnten. Während sie im Panhandle waren, fanden sie heraus, dass sie über AT & T Service hatten, was, wie Lewis sagt, der einzige Träger mit Abdeckung war, und sie wechselten zu Walkie-Talkies, wenn sie Gebiete mit Ausfällen erreichten. Wenn sie ihre Befunde nicht direkt an besorgte Familien weitergeben könnten, würden sie Fotos oder Videos machen, um sie später mit ihren Handys zu teilen. Er sagt, dass sein Team auf dieser Reise mehr als 300 Leute mit der App erreicht hat.

Doch die Rettung, die ihm am deutlichsten in Erinnerung blieb, wurde nicht von CSR koordiniert. Es kam nur zufällig zustande. Sie war die Nachbarin von jemandem, dessen Familie eine Wellnessanfrage eingereicht hatte; Lewis entdeckte sie, als sie sich darauf vorbereiteten, zum nächsten Ticket zu gehen, und er fragte, ob es ihr gut gehe. Es wurde bald klar, dass sie es nicht war. Eine Witwe in ihren 80ern und gebrechlich, lebte sie allein. Es gab fast kein Essen oder Wasser in ihrem Haus. Ein Teil ihres Daches war aus dem Rahmen gerissen worden. Eine Immigrantin aus Thailand, sie hatte keine Familie in den USA. Niemand suchte nach ihr. Sie hatte einen Freund in der Stadt, aber ohne Telefon konnte sie sie nicht anrufen. "Es war herzzerreißend", sagt Lewis.

Sein Team erreichte die Freundin und wartete, bis sie die alte Frau abgeholt hatte. Dann flickten sie ihr Dach und rissen ihren nassen Teppich aus, sammelten ihre Wertsachen und legten sie an einen sicheren Ort zum Trocknen. Sie haben ein neues CSR-Ticket eingereicht, so dass es einen Rekord gab. Und damit jemand aufpasst. Aber der Vorfall zeigte eine der größten Einschränkungen der App – alleine können keine vermissten Personen gefunden werden. Obdachlos, ohne Telefon, ohne Familie oder ohne Facebook, kann gefährliche Stürme in den Tagen und Wochen nach dem schlimmsten Wetter noch tödlicher machen.

Das ist einer der Gründe, warum Marchettis Team begonnen hat, soziale Vulnerabilitätsindizes und Überflutungszonen auf seine Karten von Gebieten zu schichten, in denen Hurrikane erwartet werden. Während Landfallvorhersagen sich festigen, platziert CSR Facebook-Anzeigen für seine App gezielt an Menschen, die auf dem Weg des Sturms leben. Sie telefonieren mit Kirchen und lokalen Organisationen und versuchen, auf die Ressource aufmerksam zu machen. "Wir wollen diese Rolle des Equalizers spielen und als Notlösung dienen", sagt er. "Nicht die Fähigkeit oder die Mittel zu haben, um zu evakuieren bedeutet nicht, dass du es nicht verdient hast, geholfen zu werden."

Am frühen Mittwochmorgen hatte CSR mehr als 1.200 offene Tickets für Leute, die noch nicht als "sicher" verifiziert waren. Aber als mehr Leute Zellenservice bekamen und Freiwillige einen Rückstau von Anfragen räumten, sank diese Zahl bis zum Ende des Tages auf 548. Marchetti sagt, dass dies nicht unbedingt bedeutet, dass all diese Menschen wirklich vermisst werden und für tot gehalten werden. Sie könnten bei anderen Freunden oder Verwandten bleiben und nicht kommunizieren können. "Aber wir fangen an, diesen Punkt bei jeder Katastrophe zu treffen, wo diese Zahl immer repräsentativer wird", sagt er.

Eine offiziellere Nummer könnte schon am Donnerstagabend auftauchen, wenn die Federal Emergency Management Agency ihre Such- und Rettungsaktionen abschließen wird. Die Agentur hat 10 Besatzungen und ein Dutzend Kadaver schnüffelnde Hunde, die die Zerstörung in den Buchten Bay, Gulf und Jackson durchkämmen, so FEMA-Sprecher Ruben Brown, der am Mittwoch in der vorläufigen Betriebsstätte der Agentur in Tallahassee eingetroffen war.

Staatsbeamte haben keine Zählung der Personen vorgelegt, die derzeit als vermisst gelten. Die Abteilung des Notfallmanagements des Staates verfügt über ein Online-System, in dem Personen vermisste Personen sowie die Standorte von Menschen berichten können, die in der Falle sind oder keine Medikamente mehr haben. Aber Florida Beamte reagierten nicht auf Fragen darüber, wie diese Listen benutzt werden, um Suchen zu koordinieren. Die Website des Staates verlinkt auch zu einer durchsuchbaren American Red Cross Registrierung, wo Menschen sich selbst als "sicher und gut" für ihre Lieben zu finden, zu finden.


Mehr große WIRED Geschichten

Funky Materials verleihen der Mantis Shrimp ihren kraftvollen Schlag


Stellen Sie sich vor für eine Zweitens, dass du eine Krabbe bist, und ein Krebstier namens Mantis Shrimp hat beschlossen, dir sein Mittagessen zu machen. Die Wahrheit ist, es lohnt sich nicht zu kämpfen. Die Mantisgarnele verwendet Muskeln, um zwei hammerartige Anhänge unter ihr Gesicht zurückzuspannen und Energie in einem sattelartigen Divot in den Gliedern zu speichern. Wenn der Riegel losgelassen wird, beschleunigen die Hämmer so schnell und treffen so brutal auf deine Granate, dass sie Kavitationsblasen im Wasser erzeugen, die kollabieren und eine sekundäre Schockwelle freisetzen, die dich kalt schlägt. (Wenn du hätten Entschlossen, einen Kampf zu führen, hätte die Mantisgarnele zuerst strategisch deine Klauen weggeblasen und dir dann ins Gesicht geschlagen, bis du stirbst.)

Das ist eine Menge auszupacken, und niemand kennt den Kampf besser als Wissenschaftler. Seit Jahren nutzen sie Hochgeschwindigkeitsfotografie, um herauszufinden, wie ein kleiner Krustentier mit dem vielleicht mächtigsten Pfund-für-Pfund-Schlag in der Tierwelt umgehen kann – und nicht zuletzt mit dem erheblichen zusätzlichen Wasserwiderstand. Ein großer Schlüssel, berichten Forscher heute in der Zeitschrift iScience, ist nicht nur die Form dieses energiespeichernden Sattels, sondern seine clevere Materialzusammensetzung. Jetzt konnte die Technik, die die Mantis-Garnele zu einem der wildesten Killer im Meer gemacht hat, in Roboter eindringen – idealerweise nicht von der wilden Killer-Sorte.

Maryam Tadayon / Nanyang Technologische Universität

Die Forscher untersuchten zunächst den Sattel einer Mantisgarnele (die übrigens keine Shrimps ist, sondern ein Stomatopod) mit einer Technik namens Nanoindentation. "Im Grunde genommen können Sie die Mechanik in einem sehr kleinen Maßstab untersuchen", sagt Ko-Autor Ali Miserez, Professor für bioinspirierte Technik an der Nanyang Technological University in Singapur. "Du benutzt eine Diamantspitze und drückst auf die Materialien."

Was Miserez und seine Kollegen fanden, war zu gleichen Teilen seltsam und evolutionär brillant. Der Sattel besteht aus verschiedenen Ober- und Unterschichten: Oben befindet sich eine Biokeramik, ähnlich wie in einer Kaffeetasse, während sich auf der Unterseite ein dehnbares Material befindet, das Biopolymer genannt wird.

Wenn Sie in der Walloping-Geschäft sind, kommt eine Keramik vielleicht nicht als Ihr robustes Material der Wahl in den Sinn. "Wir haben alle den Eindruck, dass Keramik brüchig ist", sagt Miserez. "Wenn ich meine Kaffeetasse auf den Boden fallen lasse, würde sie wahrscheinlich zerbrechen. Aber eigentlich ist es vor allem in Spannung spröde, wenn man daran zieht. Aber wenn du eine Keramik komprimierst, ist sie ziemlich stark. "

Maryam Tadayon / Nanyang Technologische Universität

Wenn die Mantisgarnele Energie in diesen Sattel lädt, faltet sich die Struktur in sich zusammen, komprimiert die obere Keramikschicht und nutzt ihre Materialeigenschaften aus. So ist die untere Schicht aus Biopolymer erstreckt sichAusnutzung des besonderen Vermögens dieses Materials. "Polymere sind stark in Spannung, wie Seide, aber nicht in Kompression", sagt Miserez. So ist jedes Material aufgrund seiner Position auf dem Sattel einzigartig geeignet, um Festigkeit zu bieten, so dass der Hammer nicht einrastet.

Um dies experimentell zu testen, holten die Forscher einen Laser. Sie verwendeten einen schnell zündenden Pikosekunden-Laser, der präzise Streifen aus Mantisgarnelen-Sattelmaterial ausschneidet. "Wenn man diese Probe biegt und man die obere Schicht in Kompression und dann die unterste Schicht in Spannung hält, wie im Sattel während des eigentlichen Schlags, kann man viel höhere Festigkeit erreichen", so Miserez. Drehen Sie die Probe um und biegen Sie sie erneut. "Das war der experimentelle Beweis, dass diese räumliche Anordnung tatsächlich kritisch ist."

Maryam Tadayon / Nanyang Technologische Universität

Es ist ein großes Stück des smashy Puzzles, das der Mantis Shrimp-Schlag ist. "Die Verwendung von elastischen Energiespeichern für extrem schnelle Bewegungen ist noch nicht vollständig geklärt und wird kaum untersucht", sagt die Duke-Biologin Sheila Patek, Expertin für Mantisgarnelen. "Dies ist ein wirklich schönes Stück einer Geschichte, die in Mantis Shrimps spielt, aber es ist auch grundlegend für viele kleine Organismen, die Materialien verwenden, um Bewegung zu treiben."

So z. B. schreckt die Fallen-Kiefer-Ameise ihre Kiefer zurück und feuert sie mit 145 Meilen pro Stunde ab, um ihre Feinde zu zerschmettern und sich selbst aus der Gefahr zu sprengen, indem sie ihr Gesicht auf den Boden richtet. Die Pistolengarnele verwendet auch einen Verriegelungsmechanismus, um Kugeln von Blasen aus ihren Klauen zu schießen. Es ist alles visuell auffällig, aber schwer zu erklären, wenn man nicht die Strukturen betrachtet, die neben der Geometrie und den Materialien involviert sind.

Diese Forschung könnte nicht nur dazu beitragen, kühle biologische Rätsel zu lösen, sondern auch Anwendungen in der Robotik finden. Ihr typischer Roboter besteht aus Metall, nicht aus Keramik. Aber Keramiken sind tatsächlich steifer und leichter als Metalle, was nützlich sein könnte, wenn wir ihre spröde Natur ausgleichen können. "Wenn Sie eine Doppelschichtanordnung haben, können Sie diese Brüchigkeit im Prinzip überwinden", sagt Miserez. "Sie könnten eine höhere Energiemenge bei niedrigeren Gewichtskosten speichern."

Video von Maryam Tadayon / Nanyang Technologische Universität

Weißt du, für Dinge wie Springen. Stanzen Sie keine Krebse (oder Menschen) ins Gesicht.


Mehr große WIRED Geschichten

Diese neuen Tricks können Deeffake-Videos überlisten – für jetzt


Seit Wochen Computer Der Wissenschaftler Siwei Lyu hatte die Deepfake-Videos seines Teams mit einem nagenden Unbehagen beobachtet. Diese gefälschten Filme wurden von einem maschinellen Lernalgorithmus erstellt und zeigten Prominente, die Dinge taten, die sie nie getan hatten. Sie fühlten sich unheimlich, und das nicht nur, weil er wusste, dass sie entkörnt worden waren. "Sie sehen nicht gut aus", erinnert er sich, "aber es ist sehr schwer festzustellen, woher das kommt."

Schließlich kam eines Tages eine Kindheitserinnerung in sein Gehirn. Er hatte, wie viele andere Kinder, anstarrende Wettkämpfe mit seinen offenäugigen Gleichaltrigen veranstaltet. "Ich habe diese Spiele immer verloren", sagt er, "denn wenn ich ihre Gesichter beobachte und sie nicht blinzeln, fühle ich mich sehr unwohl."

Diese Labor-gesponnenen Deepfakes nickten ihn mit dem gleichen Unbehagen: Er verlor den Ansturm mit diesen Filmstars, die ihre Augen nicht mit den für echte Menschen typischen Geschwindigkeiten öffneten und schlossen.

Um herauszufinden, warum, gruben Lyu, ein Professor an der Universität von Albany, und sein Team jeden Schritt in der Software namens DeepFake, die sie geschaffen hatte.

Deepfake-Programme ziehen viele Bilder einer bestimmten Person – Sie, Ihre Ex-Freundin, Kim Jong-un – ein, um sie in verschiedenen Winkeln zu fangen, mit verschiedenen Ausdrücken, mit anderen Worten. Die Algorithmen erfahren, wie dieser Charakter aussieht, und synthetisieren dann dieses Wissen in ein Video, das zeigt, dass diese Person etwas tut, was sie nie getan hat. Mach Pornos. Bringen Sie Stephen Colbert dazu, Worte auszusprechen, die John Oliver ausgesprochen hat. Stellen Sie eine präsidiale Metawarnung zu gefälschten Videos bereit.

Diese Fälschungen sind zwar (noch) nicht perfekt, obwohl sie überzeugend sind, wenn Sie ein paar Sekunden auf einem Telefonbildschirm sehen. Sie enthalten wie unheimliche, immer offene Augen Geschichten über Fehler in ihrem Entstehungsprozess. Als er in DeepFakes Eingeweide sah, erkannte Lyu, dass die Bilder, aus denen das Programm gelernt hatte, nicht viele mit geschlossenen Augen enthielten (schließlich würden Sie kein Selfie behalten, wo Sie blinzelten, oder?). "Dies wird zu einer Voreingenommenheit", sagt er. Das neuronale Netzwerk nicht erhalten blinkend. Programme könnten auch andere "physiologische Signale, die dem Menschen innewohnen, übersehen", sagt Lyus Artikel über das Phänomen, wie das Atmen mit normaler Geschwindigkeit oder mit einem Puls. (Autonome Zeichen der ständigen existenziellen Notlage sind nicht aufgeführt.) Während diese Forschung sich speziell auf Videos konzentrierte, die mit dieser speziellen Software erstellt wurden, ist es eine allgemein anerkannte Wahrheit, dass selbst eine große Anzahl von Schnappschüssen die physische menschliche Erfahrung nicht angemessen erfassen kann Software, die auf diese Bilder trainiert wurde, kann fehlend gefunden werden.

Lyus blinkende Offenbarung enthüllte eine Menge Fälschungen. Aber ein paar Wochen nachdem sein Team einen Entwurf ihrer Zeitung online gestellt hatte, erhielten sie anonyme E-Mails mit Links zu tief vorgetäuschten YouTube-Videos, deren Stars ihre Augen öffneten und ihre Augen normaler schlossen. Die falschen Content-Ersteller hatten sich weiterentwickelt.

Natürlich hatten sie. Wie Lyu in einem Stück für Die Unterhaltung"Das Blinken kann zu Deepfake-Videos hinzugefügt werden, indem man Gesichtsbilder mit geschlossenen Augen aufnimmt oder Videosequenzen für das Training verwendet." Sobald Sie wissen, was Ihr Tell ist, ist das Vermeiden "nur" ein technologisches Problem. Das heißt, Deepfakes werden wahrscheinlich ein Wettrüsten zwischen den Machern und den Detektoren werden (oder bleiben). Aber Forschung wie Lyu kann den Fälschern das Leben zumindest schwerer machen. "Wir versuchen, die Messlatte höher zu legen", sagt er. "Wir wollen den Prozess schwieriger und zeitaufwendiger machen."

Weil gerade jetzt? Es ist ziemlich einfach. Sie laden die Software herunter. Sie Google "Hillary Clinton." Sie erhalten Zehntausende von Bildern. Sie leiten sie in die Deepfake-Pipeline. Es metabolisiert sie, lernt von ihnen. Und obwohl es nicht völlig autark ist, trägt es mit ein wenig Hilfe etwas Neues und etwas wirklich Reales zur Welt.

"Es ist wirklich verschwommen", sagt Lyu. Er meint nicht die Bilder. "Die Grenze zwischen dem, was wahr ist und was falsch ist", erklärt er.

Das ist genauso wichtig wie es niemanden überrascht, der in letzter Zeit am Leben und im Internet war. Aber es ist von besonderer Bedeutung für die Militär- und Nachrichtendienste. Und das ist einer der Gründe, warum Lyus Forschung zusammen mit der Arbeit anderer durch ein Darpa-Programm namens MediFor-Media Forensics finanziert wird.

MediFor begann im Jahr 2016, als die Agentur sah, dass das Fälscherspiel auflevelte. Das Projekt zielt darauf ab, ein automatisiertes System zu erstellen, das drei Ebenen von Tells betrachtet, sie zusammenfasst und einen "Integritätswert" für ein Bild oder Video ermittelt. Die erste Ebene umfasst das Suchen nach schmutzigen digitalen Fingerabdrücken, wie Rauschen, das für ein bestimmtes Kameramodell charakteristisch ist, oder Kompressionsartefakten. Die zweite Ebene ist physisch: Vielleicht ist das Licht auf jemandes Gesicht falsch, oder eine Reflexion ist nicht so, wie es sein sollte, wo die Lampe ist. Schließlich kommen sie auf die "semantische Ebene": Vergleichen der Medien mit Dingen, von denen sie wissen, dass sie wahr sind. Wenn beispielsweise ein Video eines Fußballspiels am Dienstag, den 9. Oktober 2018 um 14 Uhr aus dem Central Park kommt, stimmt der Zustand des Himmels mit dem Archivwetterbericht überein? Stack all diese Ebenen, und voila: Integrity Score. Am Ende von MediFor hofft Darpa, Prototypsysteme zu testen, die es im Maßstab testen kann.

Aber die Uhr tickt (oder ist das nur ein sich wiederholendes Geräusch, das von einer KI erzeugt wird, die auf Zeitdaten trainiert wurde?). "Was Sie in ein paar Jahren sehen könnten, ist Dinge wie die Herstellung von Events", sagt Darpa Programm Manager Matt Turek. "Nicht nur ein einzelnes Bild oder Video, das manipuliert wird, sondern eine Reihe von Bildern oder Videos, die eine konsistente Botschaft vermitteln."

Im Los Alamos National Lab sind die Visionen des Cyberwissenschaftlers Juston Moore über mögliche Zukünfte ein wenig lebendiger. Wie dieser: Sagen Sie einem Algorithmus, dass Sie ein Bild von Moore haben wollen, der eine Drogerie ausgeraubt hat; implantiere es in das Sicherheitsmaterial des Establishments; schick ihn ins Gefängnis. Mit anderen Worten, er befürchtet, dass, wenn sich die Beweisstandards nicht mit den fabrizierten Zeiten entwickeln (oder nicht), die Menschen leicht in die Lage versetzt werden könnten. Und wenn Gerichte nicht glauben, dass sie sich auf visuelle Daten verlassen können, könnten sie auch legitime Beweise aussenden.

Folgerichtig könnte das bedeuten, dass unsere Bilder keine Worte wert sind. "Es könnte sein, dass du keinem fotografischen Beweis mehr vertraust", sagt er, "das ist keine Welt, in der ich leben möchte."

Diese Welt ist nicht völlig unglaubwürdig. Und das Problem, sagt Moore, geht weit über das Tauschen eines Gesichts gegen ein anderes hinaus. "Die Algorithmen können Bilder von Gesichtern erzeugen, die nicht zu echten Menschen gehören, und sie können Bilder auf seltsame Weise übersetzen, zum Beispiel wenn man ein Pferd in ein Zebra verwandelt", sagt Moore. Sie können Teile von Bildern "wegdenken" und Vordergrundobjekte aus Videos löschen.

Vielleicht können wir Fälschungen nicht so schnell bekämpfen, wie Menschen bessere machen können. Aber vielleicht können wir das, und diese Möglichkeit motiviert die digitale Forensik-Forschung von Moore. Das Programm von Los Alamos, das Expertise aus den Bereichen Cyber-Systeme, Informationssysteme und theoretische Biologie und Biophysik zusammenfasst, ist jünger als Darpas, gerade einmal ein Jahr alt. Ein Ansatz konzentriert sich auf "Komprimierbarkeit" oder Zeiten, in denen es nicht so viele Informationen in einem Bild gibt, wie es scheint. "Im Grunde beginnen wir mit der Idee, dass all diese AI-Generatoren von Bildern eine begrenzte Anzahl von Dingen haben, die sie erzeugen können "Selbst wenn ein Bild für Sie oder mich sehr komplex aussieht, wenn Sie es betrachten, gibt es eine ziemlich wiederholbare Struktur." Wenn Pixel recycelt werden, heißt das, dass es nicht so viel gibt Dort Dort.

Sie verwenden auch spärliche Kodierungsalgorithmen, um eine Art passendes Spiel zu spielen. Angenommen, Sie haben zwei Sammlungen: eine Reihe echter Bilder und eine Reihe künstlicher Darstellungen einer bestimmten KI. Der Algorithmus überspannt sie und baut auf, was Moore als "ein Wörterbuch visueller Elemente" bezeichnet, nämlich was die fiktionalen Bilder gemeinsam haben und was die nicht-fiktionalen Aufnahmen einzigartig teilen. Wenn Moores Freund ein Bild von Obama rettet und Moore denkt, dass es vielleicht von dieser KI stammt, kann er es durch das Programm laufen lassen, um zu sehen, welches der beiden Wörterbücher – das echte oder das falsche – es definiert.

Los Alamos, einer der leistungsstärksten Supercomputer der Welt, schüttet keine Ressourcen in dieses Programm, nur weil jemand Moore für einen Raubüberfall vorbereiten will. Die Mission des Labors besteht darin, "nationale Sicherheitsherausforderungen durch wissenschaftliche Exzellenz zu lösen." Und ihr Kernfokus liegt auf der nuklearen Sicherheit – dafür sorgen, dass Bomben nicht explodieren, wenn sie es nicht sollen, und wenn sie es (bitte nicht) tun und helfen in der Nichtverbreitung. Das alles erfordert allgemeines Know-how im maschinellen Lernen, denn es hilft, wie Moore sagt, "mächtige Schlüsse aus kleinen Datensätzen zu ziehen".

Aber darüber hinaus müssen Orte wie Los Alamos in der Lage sein, ihren Augen zu glauben – oder, um realistischer zu sein, zu wissen, wann sie nicht glauben. Was passiert, wenn Satellitenbilder eines Landes, das Atomwaffen mobilisiert oder testet, zu sehen sind? Was ist, wenn jemand Sensormessungen synthetisiert?

Das ist eine gruselige Zukunft, die wie Moores und Lyus Ideale am besten umgehen wird. Aber in dieser Welt der verlorenen Ursache ist Sehen nicht glauben, und scheinbar konkrete Maße sind bloße Kreationen. Alles Digitale ist in Zweifel.

Aber vielleicht ist "im Zweifel" der falsche Ausdruck. Viele Menschen werden Fälschungen für bare Münze nehmen (erinnern Sie sich an das Bild eines Hais in Houston?), Vor allem, wenn sein Inhalt mit dem, was sie bereits denken, in Verbindung steht. "Die Leute werden glauben, was immer sie glauben wollen", sagt Moore.

Das ist wahrscheinlicher in der informellen Öffentlichkeit als in der nationalen Sicherheit. Und um die Verbreitung von Fehlinformationen unter uns zu stoppen, ist Darpa offen für zukünftige Partnerschaften mit Social-Media-Plattformen, um den Nutzern zu zeigen, dass das Video von Kim Jong-un, das die Macarena macht, eine geringe Integrität hat. Social Media kann auch, so Turek, eine Geschichte verbreiten, die ein bestimmtes Video so schnell entlarvt, wie es das Video selbst verbreitet.

Wird es aber? Debunking ist kompliziert (wenn auch nicht so ineffektiv, wie die Überlieferung vermuten lässt). Und die Leute müssen sich tatsächlich mit den Fakten auseinandersetzen, bevor sie ihre Meinung über die Fiktionen ändern können.

Aber selbst wenn niemand die Gedanken der Massen über die Wahrhaftigkeit eines Videos ändern könnte, ist es wichtig, dass die Leute, die politische und rechtliche Entscheidungen treffen – wer Raketen verschiebt oder jemanden ermordet – versuchen, den Unterschied zwischen wachen Realität und KI zu unterscheiden Traum.


Mehr große WIRED Geschichten

Diese neuen Tricks können Deeffake-Videos überlisten – für jetzt


Seit Wochen Computer Der Wissenschaftler Siwei Lyu hatte die Deepfake-Videos seines Teams mit einem nagenden Unbehagen beobachtet. Diese gefälschten Filme wurden von einem maschinellen Lernalgorithmus erstellt und zeigten Prominente, die Dinge taten, die sie nie getan hatten. Sie fühlten sich unheimlich, und das nicht nur, weil er wusste, dass sie entkörnt worden waren. "Sie sehen nicht gut aus", erinnert er sich, "aber es ist sehr schwer festzustellen, woher das kommt."

Schließlich kam eines Tages eine Kindheitserinnerung in sein Gehirn. Er hatte, wie viele andere Kinder, anstarrende Wettkämpfe mit seinen offenäugigen Gleichaltrigen veranstaltet. "Ich habe diese Spiele immer verloren", sagt er, "denn wenn ich ihre Gesichter beobachte und sie nicht blinzeln, fühle ich mich sehr unwohl."

Diese Labor-gesponnenen Deepfakes nickten ihn mit dem gleichen Unbehagen: Er verlor den Ansturm mit diesen Filmstars, die ihre Augen nicht mit den für echte Menschen typischen Geschwindigkeiten öffneten und schlossen.

Um herauszufinden, warum, gruben Lyu, ein Professor an der Universität von Albany, und sein Team jeden Schritt in der Software namens DeepFake, die sie geschaffen hatte.

Deepfake-Programme ziehen viele Bilder einer bestimmten Person – Sie, Ihre Ex-Freundin, Kim Jong-un – ein, um sie in verschiedenen Winkeln zu fangen, mit verschiedenen Ausdrücken, mit anderen Worten. Die Algorithmen erfahren, wie dieser Charakter aussieht, und synthetisieren dann dieses Wissen in ein Video, das zeigt, dass diese Person etwas tut, was sie nie getan hat. Mach Pornos. Bringen Sie Stephen Colbert dazu, Worte auszusprechen, die John Oliver ausgesprochen hat. Stellen Sie eine präsidiale Metawarnung zu gefälschten Videos bereit.

Diese Fälschungen sind zwar (noch) nicht perfekt, obwohl sie überzeugend sind, wenn Sie ein paar Sekunden auf einem Telefonbildschirm sehen. Sie enthalten wie unheimliche, immer offene Augen Geschichten über Fehler in ihrem Entstehungsprozess. Als er in DeepFakes Eingeweide sah, erkannte Lyu, dass die Bilder, aus denen das Programm gelernt hatte, nicht viele mit geschlossenen Augen enthielten (schließlich würden Sie kein Selfie behalten, wo Sie blinzelten, oder?). "Dies wird zu einer Voreingenommenheit", sagt er. Das neuronale Netzwerk nicht erhalten blinkend. Programme könnten auch andere "physiologische Signale, die dem Menschen innewohnen, übersehen", sagt Lyus Artikel über das Phänomen, wie das Atmen mit normaler Geschwindigkeit oder mit einem Puls. (Autonome Zeichen der ständigen existenziellen Notlage sind nicht aufgeführt.) Während diese Forschung sich speziell auf Videos konzentrierte, die mit dieser speziellen Software erstellt wurden, ist es eine allgemein anerkannte Wahrheit, dass selbst eine große Anzahl von Schnappschüssen die physische menschliche Erfahrung nicht angemessen erfassen kann Software, die auf diese Bilder trainiert wurde, kann fehlend gefunden werden.

Lyus blinkende Offenbarung enthüllte eine Menge Fälschungen. Aber ein paar Wochen nachdem sein Team einen Entwurf ihrer Zeitung online gestellt hatte, erhielten sie anonyme E-Mails mit Links zu tief vorgetäuschten YouTube-Videos, deren Stars ihre Augen öffneten und ihre Augen normaler schlossen. Die falschen Content-Ersteller hatten sich weiterentwickelt.

Natürlich hatten sie. Wie Lyu in einem Stück für Die Unterhaltung"Das Blinken kann zu Deepfake-Videos hinzugefügt werden, indem man Gesichtsbilder mit geschlossenen Augen aufnimmt oder Videosequenzen für das Training verwendet." Sobald Sie wissen, was Ihr Tell ist, ist das Vermeiden "nur" ein technologisches Problem. Das heißt, Deepfakes werden wahrscheinlich ein Wettrüsten zwischen den Machern und den Detektoren werden (oder bleiben). Aber Forschung wie Lyu kann den Fälschern das Leben zumindest schwerer machen. "Wir versuchen, die Messlatte höher zu legen", sagt er. "Wir wollen den Prozess schwieriger und zeitaufwendiger machen."

Weil gerade jetzt? Es ist ziemlich einfach. Sie laden die Software herunter. Sie Google "Hillary Clinton." Sie erhalten Zehntausende von Bildern. Sie leiten sie in die Deepfake-Pipeline. Es metabolisiert sie, lernt von ihnen. Und obwohl es nicht völlig autark ist, trägt es mit ein wenig Hilfe etwas Neues und etwas wirklich Reales zur Welt.

"Es ist wirklich verschwommen", sagt Lyu. Er meint nicht die Bilder. "Die Grenze zwischen dem, was wahr ist und was falsch ist", erklärt er.

Das ist genauso wichtig wie es niemanden überrascht, der in letzter Zeit am Leben und im Internet war. Aber es ist von besonderer Bedeutung für die Militär- und Nachrichtendienste. Und das ist einer der Gründe, warum Lyus Forschung zusammen mit der Arbeit anderer durch ein Darpa-Programm namens MediFor-Media Forensics finanziert wird.

MediFor begann im Jahr 2016, als die Agentur sah, dass das Fälscherspiel auflevelte. Das Projekt zielt darauf ab, ein automatisiertes System zu erstellen, das drei Ebenen von Tells betrachtet, sie zusammenfasst und einen "Integritätswert" für ein Bild oder Video ermittelt. Die erste Ebene umfasst das Suchen nach schmutzigen digitalen Fingerabdrücken, wie Rauschen, das für ein bestimmtes Kameramodell charakteristisch ist, oder Kompressionsartefakten. Die zweite Ebene ist physisch: Vielleicht ist das Licht auf jemandes Gesicht falsch, oder eine Reflexion ist nicht so, wie es sein sollte, wo die Lampe ist. Schließlich kommen sie auf die "semantische Ebene": Vergleichen der Medien mit Dingen, von denen sie wissen, dass sie wahr sind. Wenn beispielsweise ein Video eines Fußballspiels am Dienstag, den 9. Oktober 2018 um 14 Uhr aus dem Central Park kommt, stimmt der Zustand des Himmels mit dem Archivwetterbericht überein? Stack all diese Ebenen, und voila: Integrity Score. Am Ende von MediFor hofft Darpa, Prototypsysteme zu testen, die es im Maßstab testen kann.

Aber die Uhr tickt (oder ist das nur ein sich wiederholendes Geräusch, das von einer KI erzeugt wird, die auf Zeitdaten trainiert wurde?). "Was Sie in ein paar Jahren sehen könnten, ist Dinge wie die Herstellung von Events", sagt Darpa Programm Manager Matt Turek. "Nicht nur ein einzelnes Bild oder Video, das manipuliert wird, sondern eine Reihe von Bildern oder Videos, die eine konsistente Botschaft vermitteln."

Im Los Alamos National Lab sind die Visionen des Cyberwissenschaftlers Juston Moore über mögliche Zukünfte ein wenig lebendiger. Wie dieser: Sagen Sie einem Algorithmus, dass Sie ein Bild von Moore haben wollen, der eine Drogerie ausgeraubt hat; implantiere es in das Sicherheitsmaterial des Establishments; schick ihn ins Gefängnis. Mit anderen Worten, er befürchtet, dass, wenn sich die Beweisstandards nicht mit den fabrizierten Zeiten entwickeln (oder nicht), die Menschen leicht in die Lage versetzt werden könnten. Und wenn Gerichte nicht glauben, dass sie sich auf visuelle Daten verlassen können, könnten sie auch legitime Beweise aussenden.

Folgerichtig könnte das bedeuten, dass unsere Bilder keine Worte wert sind. "Es könnte sein, dass du keinem fotografischen Beweis mehr vertraust", sagt er, "das ist keine Welt, in der ich leben möchte."

Diese Welt ist nicht völlig unglaubwürdig. Und das Problem, sagt Moore, geht weit über das Tauschen eines Gesichts gegen ein anderes hinaus. "Die Algorithmen können Bilder von Gesichtern erzeugen, die nicht zu echten Menschen gehören, und sie können Bilder auf seltsame Weise übersetzen, zum Beispiel wenn man ein Pferd in ein Zebra verwandelt", sagt Moore. Sie können Teile von Bildern "wegdenken" und Vordergrundobjekte aus Videos löschen.

Vielleicht können wir Fälschungen nicht so schnell bekämpfen, wie Menschen bessere machen können. Aber vielleicht können wir das, und diese Möglichkeit motiviert die digitale Forensik-Forschung von Moore. Das Programm von Los Alamos, das Expertise aus den Bereichen Cyber-Systeme, Informationssysteme und theoretische Biologie und Biophysik zusammenfasst, ist jünger als Darpas, gerade einmal ein Jahr alt. Ein Ansatz konzentriert sich auf "Komprimierbarkeit" oder Zeiten, in denen es nicht so viele Informationen in einem Bild gibt, wie es scheint. "Im Grunde beginnen wir mit der Idee, dass all diese AI-Generatoren von Bildern eine begrenzte Anzahl von Dingen haben, die sie erzeugen können "Selbst wenn ein Bild für Sie oder mich sehr komplex aussieht, wenn Sie es betrachten, gibt es eine ziemlich wiederholbare Struktur." Wenn Pixel recycelt werden, heißt das, dass es nicht so viel gibt Dort Dort.

Sie verwenden auch spärliche Kodierungsalgorithmen, um eine Art passendes Spiel zu spielen. Angenommen, Sie haben zwei Sammlungen: eine Reihe echter Bilder und eine Reihe künstlicher Darstellungen einer bestimmten KI. Der Algorithmus überspannt sie und baut auf, was Moore als "ein Wörterbuch visueller Elemente" bezeichnet, nämlich was die fiktionalen Bilder gemeinsam haben und was die nicht-fiktionalen Aufnahmen einzigartig teilen. Wenn Moores Freund ein Bild von Obama rettet und Moore denkt, dass es vielleicht von dieser KI stammt, kann er es durch das Programm laufen lassen, um zu sehen, welches der beiden Wörterbücher – das echte oder das falsche – es definiert.

Los Alamos, einer der leistungsstärksten Supercomputer der Welt, schüttet keine Ressourcen in dieses Programm, nur weil jemand Moore für einen Raubüberfall vorbereiten will. Die Mission des Labors besteht darin, "nationale Sicherheitsherausforderungen durch wissenschaftliche Exzellenz zu lösen." Und ihr Kernfokus liegt auf der nuklearen Sicherheit – dafür sorgen, dass Bomben nicht explodieren, wenn sie es nicht sollen, und wenn sie es (bitte nicht) tun und helfen in der Nichtverbreitung. Das alles erfordert allgemeines Know-how im maschinellen Lernen, denn es hilft, wie Moore sagt, "mächtige Schlüsse aus kleinen Datensätzen zu ziehen".

Aber darüber hinaus müssen Orte wie Los Alamos in der Lage sein, ihren Augen zu glauben – oder, um realistischer zu sein, zu wissen, wann sie nicht glauben. Was passiert, wenn Satellitenbilder eines Landes, das Atomwaffen mobilisiert oder testet, zu sehen sind? Was ist, wenn jemand Sensormessungen synthetisiert?

Das ist eine gruselige Zukunft, die wie Moores und Lyus Ideale am besten umgehen wird. Aber in dieser Welt der verlorenen Ursache ist Sehen nicht glauben, und scheinbar konkrete Maße sind bloße Kreationen. Alles Digitale ist in Zweifel.

Aber vielleicht ist "im Zweifel" der falsche Ausdruck. Viele Menschen werden Fälschungen für bare Münze nehmen (erinnern Sie sich an das Bild eines Hais in Houston?), Vor allem, wenn sein Inhalt mit dem, was sie bereits denken, in Verbindung steht. "Die Leute werden glauben, was immer sie glauben wollen", sagt Moore.

Das ist wahrscheinlicher in der informellen Öffentlichkeit als in der nationalen Sicherheit. Und um die Verbreitung von Fehlinformationen unter uns zu stoppen, ist Darpa offen für zukünftige Partnerschaften mit Social-Media-Plattformen, um den Nutzern zu zeigen, dass das Video von Kim Jong-un, das die Macarena macht, eine geringe Integrität hat. Social Media kann auch, so Turek, eine Geschichte verbreiten, die ein bestimmtes Video so schnell entlarvt, wie es das Video selbst verbreitet.

Wird es aber? Debunking ist kompliziert (wenn auch nicht so ineffektiv, wie die Überlieferung vermuten lässt). Und die Leute müssen sich tatsächlich mit den Fakten auseinandersetzen, bevor sie ihre Meinung über die Fiktionen ändern können.

Aber selbst wenn niemand die Gedanken der Massen über die Wahrhaftigkeit eines Videos ändern könnte, ist es wichtig, dass die Leute, die politische und rechtliche Entscheidungen treffen – wer Raketen verschiebt oder jemanden ermordet – versuchen, den Unterschied zwischen wachen Realität und KI zu unterscheiden Traum.


Mehr große WIRED Geschichten

Diese neuen Tricks können Deeffake-Videos überlisten – für jetzt


Seit Wochen Computer Der Wissenschaftler Siwei Lyu hatte die Deepfake-Videos seines Teams mit einem nagenden Unbehagen beobachtet. Diese gefälschten Filme wurden von einem maschinellen Lernalgorithmus erstellt und zeigten Prominente, die Dinge taten, die sie nie getan hatten. Sie fühlten sich unheimlich, und das nicht nur, weil er wusste, dass sie entkörnt worden waren. "Sie sehen nicht gut aus", erinnert er sich, "aber es ist sehr schwer festzustellen, woher das kommt."

Schließlich kam eines Tages eine Kindheitserinnerung in sein Gehirn. Er hatte, wie viele andere Kinder, anstarrende Wettkämpfe mit seinen offenäugigen Gleichaltrigen veranstaltet. "Ich habe diese Spiele immer verloren", sagt er, "denn wenn ich ihre Gesichter beobachte und sie nicht blinzeln, fühle ich mich sehr unwohl."

Diese Labor-gesponnenen Deepfakes nickten ihn mit dem gleichen Unbehagen: Er verlor den Ansturm mit diesen Filmstars, die ihre Augen nicht mit den für echte Menschen typischen Geschwindigkeiten öffneten und schlossen.

Um herauszufinden, warum, gruben Lyu, ein Professor an der Universität von Albany, und sein Team jeden Schritt in der Software namens DeepFake, die sie geschaffen hatte.

Deepfake-Programme ziehen viele Bilder einer bestimmten Person – Sie, Ihre Ex-Freundin, Kim Jong-un – ein, um sie in verschiedenen Winkeln zu fangen, mit verschiedenen Ausdrücken, mit anderen Worten. Die Algorithmen erfahren, wie dieser Charakter aussieht, und synthetisieren dann dieses Wissen in ein Video, das zeigt, dass diese Person etwas tut, was sie nie getan hat. Mach Pornos. Bringen Sie Stephen Colbert dazu, Worte auszusprechen, die John Oliver ausgesprochen hat. Stellen Sie eine präsidiale Metawarnung zu gefälschten Videos bereit.

Diese Fälschungen sind zwar (noch) nicht perfekt, obwohl sie überzeugend sind, wenn Sie ein paar Sekunden auf einem Telefonbildschirm sehen. Sie enthalten wie unheimliche, immer offene Augen Geschichten über Fehler in ihrem Entstehungsprozess. Als er in DeepFakes Eingeweide sah, erkannte Lyu, dass die Bilder, aus denen das Programm gelernt hatte, nicht viele mit geschlossenen Augen enthielten (schließlich würden Sie kein Selfie behalten, wo Sie blinzelten, oder?). "Dies wird zu einer Voreingenommenheit", sagt er. Das neuronale Netzwerk nicht erhalten blinkend. Programme könnten auch andere "physiologische Signale, die dem Menschen innewohnen, übersehen", sagt Lyus Artikel über das Phänomen, wie das Atmen mit normaler Geschwindigkeit oder mit einem Puls. (Autonome Zeichen der ständigen existenziellen Notlage sind nicht aufgeführt.) Während diese Forschung sich speziell auf Videos konzentrierte, die mit dieser speziellen Software erstellt wurden, ist es eine allgemein anerkannte Wahrheit, dass selbst eine große Anzahl von Schnappschüssen die physische menschliche Erfahrung nicht angemessen erfassen kann Software, die auf diese Bilder trainiert wurde, kann fehlend gefunden werden.

Lyus blinkende Offenbarung enthüllte eine Menge Fälschungen. Aber ein paar Wochen nachdem sein Team einen Entwurf ihrer Zeitung online gestellt hatte, erhielten sie anonyme E-Mails mit Links zu tief vorgetäuschten YouTube-Videos, deren Stars ihre Augen öffneten und ihre Augen normaler schlossen. Die falschen Content-Ersteller hatten sich weiterentwickelt.

Natürlich hatten sie. Wie Lyu in einem Stück für Die Unterhaltung"Das Blinken kann zu Deepfake-Videos hinzugefügt werden, indem man Gesichtsbilder mit geschlossenen Augen aufnimmt oder Videosequenzen für das Training verwendet." Sobald Sie wissen, was Ihr Tell ist, ist das Vermeiden "nur" ein technologisches Problem. Das heißt, Deepfakes werden wahrscheinlich ein Wettrüsten zwischen den Machern und den Detektoren werden (oder bleiben). Aber Forschung wie Lyu kann den Fälschern das Leben zumindest schwerer machen. "Wir versuchen, die Messlatte höher zu legen", sagt er. "Wir wollen den Prozess schwieriger und zeitaufwendiger machen."

Weil gerade jetzt? Es ist ziemlich einfach. Sie laden die Software herunter. Sie Google "Hillary Clinton." Sie erhalten Zehntausende von Bildern. Sie leiten sie in die Deepfake-Pipeline. Es metabolisiert sie, lernt von ihnen. Und obwohl es nicht völlig autark ist, trägt es mit ein wenig Hilfe etwas Neues und etwas wirklich Reales zur Welt.

"Es ist wirklich verschwommen", sagt Lyu. Er meint nicht die Bilder. "Die Grenze zwischen dem, was wahr ist und was falsch ist", erklärt er.

Das ist genauso wichtig wie es niemanden überrascht, der in letzter Zeit am Leben und im Internet war. Aber es ist von besonderer Bedeutung für die Militär- und Nachrichtendienste. Und das ist einer der Gründe, warum Lyus Forschung zusammen mit der Arbeit anderer durch ein Darpa-Programm namens MediFor-Media Forensics finanziert wird.

MediFor begann im Jahr 2016, als die Agentur sah, dass das Fälscherspiel auflevelte. Das Projekt zielt darauf ab, ein automatisiertes System zu erstellen, das drei Ebenen von Tells betrachtet, sie zusammenfasst und einen "Integritätswert" für ein Bild oder Video ermittelt. Die erste Ebene umfasst das Suchen nach schmutzigen digitalen Fingerabdrücken, wie Rauschen, das für ein bestimmtes Kameramodell charakteristisch ist, oder Kompressionsartefakten. Die zweite Ebene ist physisch: Vielleicht ist das Licht auf jemandes Gesicht falsch, oder eine Reflexion ist nicht so, wie es sein sollte, wo die Lampe ist. Schließlich kommen sie auf die "semantische Ebene": Vergleichen der Medien mit Dingen, von denen sie wissen, dass sie wahr sind. Wenn beispielsweise ein Video eines Fußballspiels am Dienstag, den 9. Oktober 2018 um 14 Uhr aus dem Central Park kommt, stimmt der Zustand des Himmels mit dem Archivwetterbericht überein? Stack all diese Ebenen, und voila: Integrity Score. Am Ende von MediFor hofft Darpa, Prototypsysteme zu testen, die es im Maßstab testen kann.

Aber die Uhr tickt (oder ist das nur ein sich wiederholendes Geräusch, das von einer KI erzeugt wird, die auf Zeitdaten trainiert wurde?). "Was Sie in ein paar Jahren sehen könnten, ist Dinge wie die Herstellung von Events", sagt Darpa Programm Manager Matt Turek. "Nicht nur ein einzelnes Bild oder Video, das manipuliert wird, sondern eine Reihe von Bildern oder Videos, die eine konsistente Botschaft vermitteln."

Im Los Alamos National Lab sind die Visionen des Cyberwissenschaftlers Juston Moore über mögliche Zukünfte ein wenig lebendiger. Wie dieser: Sagen Sie einem Algorithmus, dass Sie ein Bild von Moore haben wollen, der eine Drogerie ausgeraubt hat; implantiere es in das Sicherheitsmaterial des Establishments; schick ihn ins Gefängnis. Mit anderen Worten, er befürchtet, dass, wenn sich die Beweisstandards nicht mit den fabrizierten Zeiten entwickeln (oder nicht), die Menschen leicht in die Lage versetzt werden könnten. Und wenn Gerichte nicht glauben, dass sie sich auf visuelle Daten verlassen können, könnten sie auch legitime Beweise aussenden.

Folgerichtig könnte das bedeuten, dass unsere Bilder keine Worte wert sind. "Es könnte sein, dass du keinem fotografischen Beweis mehr vertraust", sagt er, "das ist keine Welt, in der ich leben möchte."

Diese Welt ist nicht völlig unglaubwürdig. Und das Problem, sagt Moore, geht weit über das Tauschen eines Gesichts gegen ein anderes hinaus. "Die Algorithmen können Bilder von Gesichtern erzeugen, die nicht zu echten Menschen gehören, und sie können Bilder auf seltsame Weise übersetzen, zum Beispiel wenn man ein Pferd in ein Zebra verwandelt", sagt Moore. Sie können Teile von Bildern "wegdenken" und Vordergrundobjekte aus Videos löschen.

Vielleicht können wir Fälschungen nicht so schnell bekämpfen, wie Menschen bessere machen können. Aber vielleicht können wir das, und diese Möglichkeit motiviert die digitale Forensik-Forschung von Moore. Das Programm von Los Alamos, das Expertise aus den Bereichen Cyber-Systeme, Informationssysteme und theoretische Biologie und Biophysik zusammenfasst, ist jünger als Darpas, gerade einmal ein Jahr alt. Ein Ansatz konzentriert sich auf "Komprimierbarkeit" oder Zeiten, in denen es nicht so viele Informationen in einem Bild gibt, wie es scheint. "Im Grunde beginnen wir mit der Idee, dass all diese AI-Generatoren von Bildern eine begrenzte Anzahl von Dingen haben, die sie erzeugen können "Selbst wenn ein Bild für Sie oder mich sehr komplex aussieht, wenn Sie es betrachten, gibt es eine ziemlich wiederholbare Struktur." Wenn Pixel recycelt werden, heißt das, dass es nicht so viel gibt Dort Dort.

Sie verwenden auch spärliche Kodierungsalgorithmen, um eine Art passendes Spiel zu spielen. Angenommen, Sie haben zwei Sammlungen: eine Reihe echter Bilder und eine Reihe künstlicher Darstellungen einer bestimmten KI. Der Algorithmus überspannt sie und baut auf, was Moore als "ein Wörterbuch visueller Elemente" bezeichnet, nämlich was die fiktionalen Bilder gemeinsam haben und was die nicht-fiktionalen Aufnahmen einzigartig teilen. Wenn Moores Freund ein Bild von Obama rettet und Moore denkt, dass es vielleicht von dieser KI stammt, kann er es durch das Programm laufen lassen, um zu sehen, welches der beiden Wörterbücher – das echte oder das falsche – es definiert.

Los Alamos, einer der leistungsstärksten Supercomputer der Welt, schüttet keine Ressourcen in dieses Programm, nur weil jemand Moore für einen Raubüberfall vorbereiten will. Die Mission des Labors besteht darin, "nationale Sicherheitsherausforderungen durch wissenschaftliche Exzellenz zu lösen." Und ihr Kernfokus liegt auf der nuklearen Sicherheit – dafür sorgen, dass Bomben nicht explodieren, wenn sie es nicht sollen, und wenn sie es (bitte nicht) tun und helfen in der Nichtverbreitung. Das alles erfordert allgemeines Know-how im maschinellen Lernen, denn es hilft, wie Moore sagt, "mächtige Schlüsse aus kleinen Datensätzen zu ziehen".

Aber darüber hinaus müssen Orte wie Los Alamos in der Lage sein, ihren Augen zu glauben – oder, um realistischer zu sein, zu wissen, wann sie nicht glauben. Was passiert, wenn Satellitenbilder eines Landes, das Atomwaffen mobilisiert oder testet, zu sehen sind? Was ist, wenn jemand Sensormessungen synthetisiert?

Das ist eine gruselige Zukunft, die wie Moores und Lyus Ideale am besten umgehen wird. Aber in dieser Welt der verlorenen Ursache ist Sehen nicht glauben, und scheinbar konkrete Maße sind bloße Kreationen. Alles Digitale ist in Zweifel.

Aber vielleicht ist "im Zweifel" der falsche Ausdruck. Viele Menschen werden Fälschungen für bare Münze nehmen (erinnern Sie sich an das Bild eines Hais in Houston?), Vor allem, wenn sein Inhalt mit dem, was sie bereits denken, in Verbindung steht. "Die Leute werden glauben, was immer sie glauben wollen", sagt Moore.

Das ist wahrscheinlicher in der informellen Öffentlichkeit als in der nationalen Sicherheit. Und um die Verbreitung von Fehlinformationen unter uns zu stoppen, ist Darpa offen für zukünftige Partnerschaften mit Social-Media-Plattformen, um den Nutzern zu zeigen, dass das Video von Kim Jong-un, das die Macarena macht, eine geringe Integrität hat. Social Media kann auch, so Turek, eine Geschichte verbreiten, die ein bestimmtes Video so schnell entlarvt, wie es das Video selbst verbreitet.

Wird es aber? Debunking ist kompliziert (wenn auch nicht so ineffektiv, wie die Überlieferung vermuten lässt). Und die Leute müssen sich tatsächlich mit den Fakten auseinandersetzen, bevor sie ihre Meinung über die Fiktionen ändern können.

Aber selbst wenn niemand die Gedanken der Massen über die Wahrhaftigkeit eines Videos ändern könnte, ist es wichtig, dass die Leute, die politische und rechtliche Entscheidungen treffen – wer Raketen verschiebt oder jemanden ermordet – versuchen, den Unterschied zwischen wachen Realität und KI zu unterscheiden Traum.


Mehr große WIRED Geschichten

Diese neuen Tricks können Deeffake-Videos überlisten – für jetzt


Seit Wochen Computer Der Wissenschaftler Siwei Lyu hatte die Deepfake-Videos seines Teams mit einem nagenden Unbehagen beobachtet. Diese gefälschten Filme wurden von einem maschinellen Lernalgorithmus erstellt und zeigten Prominente, die Dinge taten, die sie nie getan hatten. Sie fühlten sich unheimlich, und das nicht nur, weil er wusste, dass sie entkörnt worden waren. "Sie sehen nicht gut aus", erinnert er sich, "aber es ist sehr schwer festzustellen, woher das kommt."

Schließlich kam eines Tages eine Kindheitserinnerung in sein Gehirn. Er hatte, wie viele andere Kinder, anstarrende Wettkämpfe mit seinen offenäugigen Gleichaltrigen veranstaltet. "Ich habe diese Spiele immer verloren", sagt er, "denn wenn ich ihre Gesichter beobachte und sie nicht blinzeln, fühle ich mich sehr unwohl."

Diese Labor-gesponnenen Deepfakes nickten ihn mit dem gleichen Unbehagen: Er verlor den Ansturm mit diesen Filmstars, die ihre Augen nicht mit den für echte Menschen typischen Geschwindigkeiten öffneten und schlossen.

Um herauszufinden, warum, gruben Lyu, ein Professor an der Universität von Albany, und sein Team jeden Schritt in der Software namens DeepFake, die sie geschaffen hatte.

Deepfake-Programme ziehen viele Bilder einer bestimmten Person – Sie, Ihre Ex-Freundin, Kim Jong-un – ein, um sie in verschiedenen Winkeln zu fangen, mit verschiedenen Ausdrücken, mit anderen Worten. Die Algorithmen erfahren, wie dieser Charakter aussieht, und synthetisieren dann dieses Wissen in ein Video, das zeigt, dass diese Person etwas tut, was sie nie getan hat. Mach Pornos. Bringen Sie Stephen Colbert dazu, Worte auszusprechen, die John Oliver ausgesprochen hat. Stellen Sie eine präsidiale Metawarnung zu gefälschten Videos bereit.

Diese Fälschungen sind zwar (noch) nicht perfekt, obwohl sie überzeugend sind, wenn Sie ein paar Sekunden auf einem Telefonbildschirm sehen. Sie enthalten wie unheimliche, immer offene Augen Geschichten über Fehler in ihrem Entstehungsprozess. Als er in DeepFakes Eingeweide sah, erkannte Lyu, dass die Bilder, aus denen das Programm gelernt hatte, nicht viele mit geschlossenen Augen enthielten (schließlich würden Sie kein Selfie behalten, wo Sie blinzelten, oder?). "Dies wird zu einer Voreingenommenheit", sagt er. Das neuronale Netzwerk nicht erhalten blinkend. Programme könnten auch andere "physiologische Signale, die dem Menschen innewohnen, übersehen", sagt Lyus Artikel über das Phänomen, wie das Atmen mit normaler Geschwindigkeit oder mit einem Puls. (Autonome Zeichen der ständigen existenziellen Notlage sind nicht aufgeführt.) Während diese Forschung sich speziell auf Videos konzentrierte, die mit dieser speziellen Software erstellt wurden, ist es eine allgemein anerkannte Wahrheit, dass selbst eine große Anzahl von Schnappschüssen die physische menschliche Erfahrung nicht angemessen erfassen kann Software, die auf diese Bilder trainiert wurde, kann fehlend gefunden werden.

Lyus blinkende Offenbarung enthüllte eine Menge Fälschungen. Aber ein paar Wochen nachdem sein Team einen Entwurf ihrer Zeitung online gestellt hatte, erhielten sie anonyme E-Mails mit Links zu tief vorgetäuschten YouTube-Videos, deren Stars ihre Augen öffneten und ihre Augen normaler schlossen. Die falschen Content-Ersteller hatten sich weiterentwickelt.

Natürlich hatten sie. Wie Lyu in einem Stück für Die Unterhaltung"Das Blinken kann zu Deepfake-Videos hinzugefügt werden, indem man Gesichtsbilder mit geschlossenen Augen aufnimmt oder Videosequenzen für das Training verwendet." Sobald Sie wissen, was Ihr Tell ist, ist das Vermeiden "nur" ein technologisches Problem. Das heißt, Deepfakes werden wahrscheinlich ein Wettrüsten zwischen den Machern und den Detektoren werden (oder bleiben). Aber Forschung wie Lyu kann den Fälschern das Leben zumindest schwerer machen. "Wir versuchen, die Messlatte höher zu legen", sagt er. "Wir wollen den Prozess schwieriger und zeitaufwendiger machen."

Weil gerade jetzt? Es ist ziemlich einfach. Sie laden die Software herunter. Sie Google "Hillary Clinton." Sie erhalten Zehntausende von Bildern. Sie leiten sie in die Deepfake-Pipeline. Es metabolisiert sie, lernt von ihnen. Und obwohl es nicht völlig autark ist, trägt es mit ein wenig Hilfe etwas Neues und etwas wirklich Reales zur Welt.

"Es ist wirklich verschwommen", sagt Lyu. Er meint nicht die Bilder. "Die Grenze zwischen dem, was wahr ist und was falsch ist", erklärt er.

Das ist genauso wichtig wie es niemanden überrascht, der in letzter Zeit am Leben und im Internet war. Aber es ist von besonderer Bedeutung für die Militär- und Nachrichtendienste. Und das ist einer der Gründe, warum Lyus Forschung zusammen mit der Arbeit anderer durch ein Darpa-Programm namens MediFor-Media Forensics finanziert wird.

MediFor begann im Jahr 2016, als die Agentur sah, dass das Fälscherspiel auflevelte. Das Projekt zielt darauf ab, ein automatisiertes System zu erstellen, das drei Ebenen von Tells betrachtet, sie zusammenfasst und einen "Integritätswert" für ein Bild oder Video ermittelt. Die erste Ebene umfasst das Suchen nach schmutzigen digitalen Fingerabdrücken, wie Rauschen, das für ein bestimmtes Kameramodell charakteristisch ist, oder Kompressionsartefakten. Die zweite Ebene ist physisch: Vielleicht ist das Licht auf jemandes Gesicht falsch, oder eine Reflexion ist nicht so, wie es sein sollte, wo die Lampe ist. Schließlich kommen sie auf die "semantische Ebene": Vergleichen der Medien mit Dingen, von denen sie wissen, dass sie wahr sind. Wenn beispielsweise ein Video eines Fußballspiels am Dienstag, den 9. Oktober 2018 um 14 Uhr aus dem Central Park kommt, stimmt der Zustand des Himmels mit dem Archivwetterbericht überein? Stack all diese Ebenen, und voila: Integrity Score. Am Ende von MediFor hofft Darpa, Prototypsysteme zu testen, die es im Maßstab testen kann.

Aber die Uhr tickt (oder ist das nur ein sich wiederholendes Geräusch, das von einer KI erzeugt wird, die auf Zeitdaten trainiert wurde?). "Was Sie in ein paar Jahren sehen könnten, ist Dinge wie die Herstellung von Events", sagt Darpa Programm Manager Matt Turek. "Nicht nur ein einzelnes Bild oder Video, das manipuliert wird, sondern eine Reihe von Bildern oder Videos, die eine konsistente Botschaft vermitteln."

Im Los Alamos National Lab sind die Visionen des Cyberwissenschaftlers Juston Moore über mögliche Zukünfte ein wenig lebendiger. Wie dieser: Sagen Sie einem Algorithmus, dass Sie ein Bild von Moore haben wollen, der eine Drogerie ausgeraubt hat; implantiere es in das Sicherheitsmaterial des Establishments; schick ihn ins Gefängnis. Mit anderen Worten, er befürchtet, dass, wenn sich die Beweisstandards nicht mit den fabrizierten Zeiten entwickeln (oder nicht), die Menschen leicht in die Lage versetzt werden könnten. Und wenn Gerichte nicht glauben, dass sie sich auf visuelle Daten verlassen können, könnten sie auch legitime Beweise aussenden.

Folgerichtig könnte das bedeuten, dass unsere Bilder keine Worte wert sind. "Es könnte sein, dass du keinem fotografischen Beweis mehr vertraust", sagt er, "das ist keine Welt, in der ich leben möchte."

Diese Welt ist nicht völlig unglaubwürdig. Und das Problem, sagt Moore, geht weit über das Tauschen eines Gesichts gegen ein anderes hinaus. "Die Algorithmen können Bilder von Gesichtern erzeugen, die nicht zu echten Menschen gehören, und sie können Bilder auf seltsame Weise übersetzen, zum Beispiel wenn man ein Pferd in ein Zebra verwandelt", sagt Moore. Sie können Teile von Bildern "wegdenken" und Vordergrundobjekte aus Videos löschen.

Vielleicht können wir Fälschungen nicht so schnell bekämpfen, wie Menschen bessere machen können. Aber vielleicht können wir das, und diese Möglichkeit motiviert die digitale Forensik-Forschung von Moore. Das Programm von Los Alamos, das Expertise aus den Bereichen Cyber-Systeme, Informationssysteme und theoretische Biologie und Biophysik zusammenfasst, ist jünger als Darpas, gerade einmal ein Jahr alt. Ein Ansatz konzentriert sich auf "Komprimierbarkeit" oder Zeiten, in denen es nicht so viele Informationen in einem Bild gibt, wie es scheint. "Im Grunde beginnen wir mit der Idee, dass all diese AI-Generatoren von Bildern eine begrenzte Anzahl von Dingen haben, die sie erzeugen können "Selbst wenn ein Bild für Sie oder mich sehr komplex aussieht, wenn Sie es betrachten, gibt es eine ziemlich wiederholbare Struktur." Wenn Pixel recycelt werden, heißt das, dass es nicht so viel gibt Dort Dort.

Sie verwenden auch spärliche Kodierungsalgorithmen, um eine Art passendes Spiel zu spielen. Angenommen, Sie haben zwei Sammlungen: eine Reihe echter Bilder und eine Reihe künstlicher Darstellungen einer bestimmten KI. Der Algorithmus überspannt sie und baut auf, was Moore als "ein Wörterbuch visueller Elemente" bezeichnet, nämlich was die fiktionalen Bilder gemeinsam haben und was die nicht-fiktionalen Aufnahmen einzigartig teilen. Wenn Moores Freund ein Bild von Obama rettet und Moore denkt, dass es vielleicht von dieser KI stammt, kann er es durch das Programm laufen lassen, um zu sehen, welches der beiden Wörterbücher – das echte oder das falsche – es definiert.

Los Alamos, einer der leistungsstärksten Supercomputer der Welt, schüttet keine Ressourcen in dieses Programm, nur weil jemand Moore für einen Raubüberfall vorbereiten will. Die Mission des Labors besteht darin, "nationale Sicherheitsherausforderungen durch wissenschaftliche Exzellenz zu lösen." Und ihr Kernfokus liegt auf der nuklearen Sicherheit – dafür sorgen, dass Bomben nicht explodieren, wenn sie es nicht sollen, und wenn sie es (bitte nicht) tun und helfen in der Nichtverbreitung. Das alles erfordert allgemeines Know-how im maschinellen Lernen, denn es hilft, wie Moore sagt, "mächtige Schlüsse aus kleinen Datensätzen zu ziehen".

Aber darüber hinaus müssen Orte wie Los Alamos in der Lage sein, ihren Augen zu glauben – oder, um realistischer zu sein, zu wissen, wann sie nicht glauben. Was passiert, wenn Satellitenbilder eines Landes, das Atomwaffen mobilisiert oder testet, zu sehen sind? Was ist, wenn jemand Sensormessungen synthetisiert?

Das ist eine gruselige Zukunft, die wie Moores und Lyus Ideale am besten umgehen wird. Aber in dieser Welt der verlorenen Ursache ist Sehen nicht glauben, und scheinbar konkrete Maße sind bloße Kreationen. Alles Digitale ist in Zweifel.

Aber vielleicht ist "im Zweifel" der falsche Ausdruck. Viele Menschen werden Fälschungen für bare Münze nehmen (erinnern Sie sich an das Bild eines Hais in Houston?), Vor allem, wenn sein Inhalt mit dem, was sie bereits denken, in Verbindung steht. "Die Leute werden glauben, was immer sie glauben wollen", sagt Moore.

Das ist wahrscheinlicher in der informellen Öffentlichkeit als in der nationalen Sicherheit. Und um die Verbreitung von Fehlinformationen unter uns zu stoppen, ist Darpa offen für zukünftige Partnerschaften mit Social-Media-Plattformen, um den Nutzern zu zeigen, dass das Video von Kim Jong-un, das die Macarena macht, eine geringe Integrität hat. Social Media kann auch, so Turek, eine Geschichte verbreiten, die ein bestimmtes Video so schnell entlarvt, wie es das Video selbst verbreitet.

Wird es aber? Debunking ist kompliziert (wenn auch nicht so ineffektiv, wie die Überlieferung vermuten lässt). Und die Leute müssen sich tatsächlich mit den Fakten auseinandersetzen, bevor sie ihre Meinung über die Fiktionen ändern können.

Aber selbst wenn niemand die Gedanken der Massen über die Wahrhaftigkeit eines Videos ändern könnte, ist es wichtig, dass die Leute, die politische und rechtliche Entscheidungen treffen – wer Raketen verschiebt oder jemanden ermordet – versuchen, den Unterschied zwischen wachen Realität und KI zu unterscheiden Traum.


Mehr große WIRED Geschichten

Hier sehen die Astronauten, wenn eine Rakete den Mid-Flight abbricht


Nick Hague verbrachte 20 Jahre träumten davon, in den Weltraum zu kommen, zuerst als Testpilot der Air Force, dann seit 2013 als NASA-Astronaut. Am vergangenen Freitag hatte er seine große Chance, mit einem Sojus-Raumschiff vom russischen Kosmodrom Baikonur in Kasachstan in den Orbit zu springen.

Der Haager und der russische Kosmonaut Aleksey Ovchinin erwarteten einen routinemäßigen sechsstündigen Flug zur Internationalen Raumstation, doch zwei Minuten nach dem Start ging etwas schief. Die Mannschaftskapsel, in der sie saßen, begann zu zittern, als sich der massive Booster nicht richtig von der oberen Stufe der Rakete trennte.

"Es ging von normal zu etwas, das ziemlich schnell falsch war", sagte Hague während seines ersten Interviews über die Sendung, die heute morgen auf der Facebook-Seite der NASA ausgestrahlt wurde. "Das erste, was mir auffiel, war, ziemlich heftig von einer Seite zur anderen geschüttelt zu werden. Dann gab es einen Alarm in der Kapsel und ein Licht. Ich wusste, sobald ich das Licht gesehen hatte, dass wir einen Notfall mit den Boostern hatten. "

Die Soyuz MS-10-Kapsel setzte ein Notabbruchsystem ein, das die Kapsel vom Booster wegbrachte und Den Haag und Ovchinin in Sicherheit brachte. "An diesem Punkt wusste ich, dass wir es nicht in den Orbit schaffen würden", sagte Hague. "Die Mission hat sich geändert, um so sicher wie möglich auf den Boden zurückzukehren."

Die Fluchtgeschwindigkeit resultierte in Kräften von fast dem Siebenfachen der Schwerkraft, mehr als die normalen 5g, die Astronauten während eines normalen Starts fühlen. Dann, als die Kapsel ihren höchsten Punkt über dem Boden erreichte, sah Haag die Schwärze des Weltraums und die Krümmung der Erde durch ein Bullauge. Objekte in der Kapsel begannen während weniger Sekunden Schwerelosigkeit zu schweben.

"Ich schaute aus dem Fenster und merkte, dass ich nah dran war", sagte Hague.

Der 34-minütige Rückfall war relativ ereignislos. Die Fallschirme der Kapsel entfalteten sich und das Schiff landete in Kasachstan, wo Such- und Rettungsmannschaften das Team schnell aufnahmen. "Der erste Moment, in dem ich tief durchatmen konnte, war, als wir in der Kapsel zum Schleudern kamen und mein Fenster 12 Zoll vom Dreck entfernt war", sagte Hague, "und mir wurde klar, wie glücklich wir waren."

Haag gab den Tausenden von Ingenieuren und Controllern, die die Notfallsysteme installiert haben, Anerkennung. "Ich bin dankbar, dass sie ihren Job gemacht haben", sagte er. "Das hat geholfen, die Enttäuschung zu mildern, dass ich gerade nicht auf der Station bin. Ich wäre lieber dort, aber ich bin super dankbar, dass ich heute lebe und trete. "

Hague sagte, er wisse nicht, ob oder wann er wieder fliegen würde. Er ist derzeit in Houston auf Urlaub, bevor er nächste Woche zur NASA zurückkehrt. Der Leiter der staatlichen russischen Raumfahrtgesellschaft, Dmitri Rogozin, getwittert Am Samstag erwartet er, dass sowohl Hague als auch Ovchinin im Frühjahr 2019 in den Weltraum fliegen werden. Russische Beamte untersuchen auch ein seltsames Bohrloch in einer anderen Sojus-Kapsel, die an der ISS angedockt ist, obwohl der NASA-Administrator Jim Briddentine dies erwartet die Sojus-Mission soll nach einer gemeinsamen amerikanisch-russischen Untersuchung wieder aufgenommen werden. Drei Astronauten bleiben an Bord der Raumstation. NASA-Beamte haben nicht gesagt, ob sie zurückkehren werden, wenn ihre geplante Mission im Dezember abgeschlossen ist.

Der Vorfall am Freitag war das erste Mal in 35 Jahren, dass ein bemannter Sojus-Flug nach dem Start fehlgeschlagen war. Den Haag und Ovchinin sollte während ihres sechsmonatigen Aufenthalts auf der Raumstation ein Weltraumspaziergang und 300 wissenschaftliche Experimente durchgeführt werden. Als der Haag aus Russland zurück in das Johnson Space Center der NASA in Houston kam, sagte er, er sei von seinen Astronautenkollegen umarmt worden, aber auch gerippt, um das nächste Mal härter zu werden.


Mehr große WIRED Geschichten

Hier sehen die Astronauten, wenn eine Rakete den Mid-Flight abbricht


Nick Hague verbrachte 20 Jahre träumten davon, in den Weltraum zu kommen, zuerst als Testpilot der Air Force, dann seit 2013 als NASA-Astronaut. Am vergangenen Freitag hatte er seine große Chance, mit einem Sojus-Raumschiff vom russischen Kosmodrom Baikonur in Kasachstan in den Orbit zu springen.

Der Haager und der russische Kosmonaut Aleksey Ovchinin erwarteten einen routinemäßigen sechsstündigen Flug zur Internationalen Raumstation, doch zwei Minuten nach dem Start ging etwas schief. Die Mannschaftskapsel, in der sie saßen, begann zu zittern, als sich der massive Booster nicht richtig von der oberen Stufe der Rakete trennte.

"Es ging von normal zu etwas, das ziemlich schnell falsch war", sagte Hague während seines ersten Interviews über die Sendung, die heute morgen auf der Facebook-Seite der NASA ausgestrahlt wurde. "Das erste, was mir auffiel, war, ziemlich heftig von einer Seite zur anderen geschüttelt zu werden. Dann gab es einen Alarm in der Kapsel und ein Licht. Ich wusste, sobald ich das Licht gesehen hatte, dass wir einen Notfall mit den Boostern hatten. "

Die Soyuz MS-10-Kapsel setzte ein Notabbruchsystem ein, das die Kapsel vom Booster wegbrachte und Den Haag und Ovchinin in Sicherheit brachte. "An diesem Punkt wusste ich, dass wir es nicht in den Orbit schaffen würden", sagte Hague. "Die Mission hat sich geändert, um so sicher wie möglich auf den Boden zurückzukehren."

Die Fluchtgeschwindigkeit resultierte in Kräften von fast dem Siebenfachen der Schwerkraft, mehr als die normalen 5g, die Astronauten während eines normalen Starts fühlen. Dann, als die Kapsel ihren höchsten Punkt über dem Boden erreichte, sah Haag die Schwärze des Weltraums und die Krümmung der Erde durch ein Bullauge. Objekte in der Kapsel begannen während weniger Sekunden Schwerelosigkeit zu schweben.

"Ich schaute aus dem Fenster und merkte, dass ich nah dran war", sagte Hague.

Der 34-minütige Rückfall war relativ ereignislos. Die Fallschirme der Kapsel entfalteten sich und das Schiff landete in Kasachstan, wo Such- und Rettungsmannschaften das Team schnell aufnahmen. "Der erste Moment, in dem ich tief durchatmen konnte, war, als wir in der Kapsel zum Schleudern kamen und mein Fenster 12 Zoll vom Dreck entfernt war", sagte Hague, "und mir wurde klar, wie glücklich wir waren."

Haag gab den Tausenden von Ingenieuren und Controllern, die die Notfallsysteme installiert haben, Anerkennung. "Ich bin dankbar, dass sie ihren Job gemacht haben", sagte er. "Das hat geholfen, die Enttäuschung zu mildern, dass ich gerade nicht auf der Station bin. Ich wäre lieber dort, aber ich bin super dankbar, dass ich heute lebe und trete. "

Hague sagte, er wisse nicht, ob oder wann er wieder fliegen würde. Er ist derzeit in Houston auf Urlaub, bevor er nächste Woche zur NASA zurückkehrt. Der Leiter der staatlichen russischen Raumfahrtgesellschaft, Dmitri Rogozin, getwittert Am Samstag erwartet er, dass sowohl Hague als auch Ovchinin im Frühjahr 2019 in den Weltraum fliegen werden. Russische Beamte untersuchen auch ein seltsames Bohrloch in einer anderen Sojus-Kapsel, die an der ISS angedockt ist, obwohl der NASA-Administrator Jim Briddentine dies erwartet die Sojus-Mission soll nach einer gemeinsamen amerikanisch-russischen Untersuchung wieder aufgenommen werden. Drei Astronauten bleiben an Bord der Raumstation. NASA-Beamte haben nicht gesagt, ob sie zurückkehren werden, wenn ihre geplante Mission im Dezember abgeschlossen ist.

Der Vorfall am Freitag war das erste Mal in 35 Jahren, dass ein bemannter Sojus-Flug nach dem Start fehlgeschlagen war. Den Haag und Ovchinin sollte während ihres sechsmonatigen Aufenthalts auf der Raumstation ein Weltraumspaziergang und 300 wissenschaftliche Experimente durchgeführt werden. Als der Haag aus Russland zurück in das Johnson Space Center der NASA in Houston kam, sagte er, er sei von seinen Astronautenkollegen umarmt worden, aber auch gerippt, um das nächste Mal härter zu werden.


Mehr große WIRED Geschichten

Hier sehen die Astronauten, wenn eine Rakete den Mid-Flight abbricht


Nick Hague verbrachte 20 Jahre träumten davon, in den Weltraum zu kommen, zuerst als Testpilot der Air Force, dann seit 2013 als NASA-Astronaut. Am vergangenen Freitag hatte er seine große Chance, mit einem Sojus-Raumschiff vom russischen Kosmodrom Baikonur in Kasachstan in den Orbit zu springen.

Der Haager und der russische Kosmonaut Aleksey Ovchinin erwarteten einen routinemäßigen sechsstündigen Flug zur Internationalen Raumstation, doch zwei Minuten nach dem Start ging etwas schief. Die Mannschaftskapsel, in der sie saßen, begann zu zittern, als sich der massive Booster nicht richtig von der oberen Stufe der Rakete trennte.

"Es ging von normal zu etwas, das ziemlich schnell falsch war", sagte Hague während seines ersten Interviews über die Sendung, die heute morgen auf der Facebook-Seite der NASA ausgestrahlt wurde. "Das erste, was mir auffiel, war, ziemlich heftig von einer Seite zur anderen geschüttelt zu werden. Dann gab es einen Alarm in der Kapsel und ein Licht. Ich wusste, sobald ich das Licht gesehen hatte, dass wir einen Notfall mit den Boostern hatten. "

Die Soyuz MS-10-Kapsel setzte ein Notabbruchsystem ein, das die Kapsel vom Booster wegbrachte und Den Haag und Ovchinin in Sicherheit brachte. "An diesem Punkt wusste ich, dass wir es nicht in den Orbit schaffen würden", sagte Hague. "Die Mission hat sich geändert, um so sicher wie möglich auf den Boden zurückzukehren."

Die Fluchtgeschwindigkeit resultierte in Kräften von fast dem Siebenfachen der Schwerkraft, mehr als die normalen 5g, die Astronauten während eines normalen Starts fühlen. Dann, als die Kapsel ihren höchsten Punkt über dem Boden erreichte, sah Haag die Schwärze des Weltraums und die Krümmung der Erde durch ein Bullauge. Objekte in der Kapsel begannen während weniger Sekunden Schwerelosigkeit zu schweben.

"Ich schaute aus dem Fenster und merkte, dass ich nah dran war", sagte Hague.

Der 34-minütige Rückfall war relativ ereignislos. Die Fallschirme der Kapsel entfalteten sich und das Schiff landete in Kasachstan, wo Such- und Rettungsmannschaften das Team schnell aufnahmen. "Der erste Moment, in dem ich tief durchatmen konnte, war, als wir in der Kapsel zum Schleudern kamen und mein Fenster 12 Zoll vom Dreck entfernt war", sagte Hague, "und mir wurde klar, wie glücklich wir waren."

Haag gab den Tausenden von Ingenieuren und Controllern, die die Notfallsysteme installiert haben, Anerkennung. "Ich bin dankbar, dass sie ihren Job gemacht haben", sagte er. "Das hat geholfen, die Enttäuschung zu mildern, dass ich gerade nicht auf der Station bin. Ich wäre lieber dort, aber ich bin super dankbar, dass ich heute lebe und trete. "

Hague sagte, er wisse nicht, ob oder wann er wieder fliegen würde. Er ist derzeit in Houston auf Urlaub, bevor er nächste Woche zur NASA zurückkehrt. Der Leiter der staatlichen russischen Raumfahrtgesellschaft, Dmitri Rogozin, getwittert Am Samstag erwartet er, dass sowohl Hague als auch Ovchinin im Frühjahr 2019 in den Weltraum fliegen werden. Russische Beamte untersuchen auch ein seltsames Bohrloch in einer anderen Sojus-Kapsel, die an der ISS angedockt ist, obwohl der NASA-Administrator Jim Briddentine dies erwartet die Sojus-Mission soll nach einer gemeinsamen amerikanisch-russischen Untersuchung wieder aufgenommen werden. Drei Astronauten bleiben an Bord der Raumstation. NASA-Beamte haben nicht gesagt, ob sie zurückkehren werden, wenn ihre geplante Mission im Dezember abgeschlossen ist.

Der Vorfall am Freitag war das erste Mal in 35 Jahren, dass ein bemannter Sojus-Flug nach dem Start fehlgeschlagen war. Den Haag und Ovchinin sollte während ihres sechsmonatigen Aufenthalts auf der Raumstation ein Weltraumspaziergang und 300 wissenschaftliche Experimente durchgeführt werden. Als der Haag aus Russland zurück in das Johnson Space Center der NASA in Houston kam, sagte er, er sei von seinen Astronautenkollegen umarmt worden, aber auch gerippt, um das nächste Mal härter zu werden.


Mehr große WIRED Geschichten

Ihre Facebook-Posts können enthüllen, wenn Sie deprimiert sind


Facebooks 2,2 Milliarden aktiv Benutzer nutzen die Plattform für den Austausch aller Arten von Dingen: Engagements. Gruppenpläne. Politische Fehlinformationen. Katzenfotos. Aber wie die Forscher diese Woche berichteten, könnten die Worte, die Sie in Ihren Statusupdates gepostet haben, auch versteckte Informationen über Ihre psychische Gesundheit enthalten.

In der Forschung in dieser Woche der Ausgabe der Proceedings der Nationalen Akademie der WissenschaftenWissenschaftler analysierten die Sprache von den Facebook-Status-Updates der Studienteilnehmer, um zukünftige Diagnosen von Depressionen vorauszusagen. Die Forscher sagen, dass ihre Technik zu einem Screening-Tool führen könnte, das Menschen identifiziert, die psychische Unterstützung und formale Diagnose benötigen, während sie ernsthafte Fragen über die Privatsphäre der Patienten stellen.

Wenn Ihnen diese Frage bekannt vorkommt, stellen Sie sich die Dinge nicht vor: Wissenschaftler untersuchen seit Jahren den Zusammenhang zwischen Facebook und dem psychischen Zustand seiner Nutzer – oft ohne Zustimmung der zu untersuchenden Personen. Anfang dieses Jahrzehnts, Wissenschaftler bei Facebook und Cornell führte ihre berüchtigten [emotional contagion](http://www.pnas.org/content/111/24/8788) Studie, die die Stimmungen und Beziehungen von mehr als einer halben Million Facebook-Nutzer ohne ihr Wissen ins Visier nahm.In jüngerer Zeit verwendete Cambridge Analytica misshandelte Daten von etwa 87 Millionen Facebook-Nutzern, um Persönlichkeitsprofile zu entwickeln, behaupteten sie, dass es Vermarktern und politischen Kampagnen ermöglichen würde, effektivere Werbung zu liefern.

Viele Wissenschaftler setzen jedoch weiterhin Methoden ein, um auf die Daten von Facebook zuzugreifen. Zum Beispiel: Indem Sie Studienteilnehmer dazu auffordern, ihre Einwilligung zu geben, melden Sie sich in ihren Konten an und geben Sie ihre Daten – alles persönlich – frei, um einen einmaligen Zugriff auf diese Daten zu ermöglichen. Der Overhead ist enorm; Es kann Jahre dauern, bis eine ausreichend große Stichprobenpopulation durch persönliche Studienanwerbung gesammelt wurde. Dennoch kann sich der Aufwand für Sozialwissenschaftler lohnen, von denen viele Facebooks Benutzerinformationen als das wichtigste Datenarchiv in der Geschichte ihres Fachs betrachten.

"Wir verstehen zunehmend, dass das, was Menschen online tun, eine Form von Verhalten ist, die wir mit Algorithmen des maschinellen Lernens lesen können, genauso wie wir andere Arten von Daten auf der Welt lesen können", sagt der Erstautor der Psychiatrie der Universität Pennsylvania, Johannes Eichstädt von dem Neuen PNAS Studie und Mitbegründer des World Well-Being Project, einer Forschungsorganisation, die untersucht, wie die Worte, die Menschen in sozialen Medien verwenden, ihren psychologischen Zustand widerspiegeln.

Um zu untersuchen, ob die Sprache auf Facebook eine Depressionsdiagnose vorhersagen kann, benötigten Eichstaedt und seine Kollegen Zugang zu zwei persönlichen Daten: Social-Media-Konten und elektronische Krankenakten. Im Verlauf von 26 Monaten näherten sie sich mehr als 11.000 Patienten in einer Notaufnahme in Philadelphia und fragten, ob sie bereit wären, ihre EMRs und Facebook-Status-Updates bis zu sieben Jahren zu teilen.

Etwa 1.200 Patienten stimmten zu. Von diesen hatten 114 medizinische Aufzeichnungen, die auf eine Depressionsdiagnose hinweisen. Jedes Jahr leidet etwa jeder sechste Amerikaner an Depressionen. Um dieses Verhältnis in ihrer endgültigen Forschungspopulation zu reproduzieren, verglichen die Forscher jede Person mit einer Depressionsdiagnose mit fünf, die dies nicht taten. Das gab den Forschern einen endgültigen Pool von 684 Teilnehmern. Mit den mehr als einer halben Million Facebook-Statusupdates dieser Personen ermittelten die Forscher die am häufigsten verwendeten Wörter und Sätze und entwickelten einen Algorithmus, um zu erkennen, was sie als depressionsassoziierte Sprachmarker bezeichnen.

Sie fanden heraus, dass Menschen mit Depressionen in den Monaten vor ihrer klinischen Diagnose mehr "Ich" -Sprache (d. H. Pronomina der ersten Person Singularis) und Wörter verwendeten, die Feindseligkeit und Einsamkeit widerspiegeln. Durch die Schulung ihres Algorithmus zur Identifizierung dieser Sprachmuster waren die Forscher in der Lage, zukünftige Depressionsdiagnosen bis zu drei Monate vor ihrem Erscheinen in ihren medizinischen Unterlagen als formale Bedingung vorherzusagen.

Die Beobachtung der Forscher, dass depressive Menschen die Sprache "Ich" verwenden, stimmt häufiger mit den Ergebnissen früherer Studien überein, einschließlich derjenigen, die sich mit den Nutzungsmustern sozialer Medien auf selbstberichtete Depressionen beziehen. Aber dies ist die erste Studie, die die Sprache, die Menschen auf Facebook verwenden, mit klinischen Diagnosen vergleicht, die medizinische Daten verwenden. "Das ist ein wichtiger Fortschritt", sagt Matthias Mehl, ein Forschungspsychologe an der Universität von Arizona, der untersucht, wie der Sprachgebrauch die psychische Verfassung einer Person widerspiegeln kann, "aber die Vorhersagen sind noch lange nicht perfekt." Die Wahrscheinlichkeit des Algorithmus, Symptome der wahren Depression zu entdecken, sei höher als die Wahrscheinlichkeit eines falschen Alarms – aber nicht annähernd genug, um eine formale Diagnose zu ersetzen.

Eichstädt stimmt zu. "Es wäre unverantwortlich, dieses Werkzeug zu benutzen und es zu benutzen, um zu sagen: Du bist deprimiert, du bist nicht deprimiert", sagt er. Was es ist könnte geeignet sein, Leute zu finden, die formellere und oft kostspieligere Screeningmethoden verfolgen sollten. Er fügt hinzu, dass zukünftige Studien die Ergebnisse seines Teams in größeren, vielfältigeren Populationen reproduzieren müssen (die Teilnehmer an dieser Studie waren überwiegend schwarze Frauen).

Das heißt, dass die Leute bereit sein werden, die Sprache zu benutzen, die sie in sozialen Medien verwenden, die auf der Suche nach Unterschriften für psychische Gesundheit seziert werden – eine höllische Annahme, angesichts von Facebooks anhaltender Kette von Datenschutzskandalen. Und selbst wenn Menschen ihre persönlichen Informationen teilen, sagt Eichstaedt, dass man seine wahre Vorhersagekraft erst dann freisetzen kann, wenn man sie mit einer anderen Form von Daten kombiniert: Herzfrequenz, Aktivität oder Schlafmuster – alles wird aufgezeichnet mehr und mehr von Activity Tracker.

"Ein wohlwollender Diktator würde all diese Datenströme verbinden und sie für das Gemeinwohl nutzen", sagt Eichstaedt. Aber die moralischen und ethischen Abstimmungen der größten Unternehmen der Technologie stehen heute mehr auf dem Prüfstand als zu irgendeinem Zeitpunkt in der jüngeren Geschichte. Wenn ein solches Screening-Tool auf Facebook oder einer anderen Social-Media-Plattform erscheint, ist es schwer vorstellbar, dass es in absehbarer Zeit geschieht.


Mehr große WIRED Geschichten