Ein Gro?teil der Diskussion über künstliche Intelligenz (KI) dreht sich heutzutage um deren potenzielle Bedrohung für die Menschheit. Doch was w?re, wenn das Gegenteil der Fall w?re? Was w?re, wenn sich die KI, anstatt die Menschheit zu zerst?ren, als ihr Retter erweisen würde?
Die jüngste Pandemie hat gezeigt, wie anf?llig die moderne Gesellschaft für Gefahren aus der Natur ist – wenn auch nicht in Form einer v?lligen Ausrottung, so doch in Form schwerwiegender wirtschaftlicher und gesellschaftlicher Beeintr?chtigungen.
Eine wirksame Datenerfassung und -analyse hat sich bei der raschen Bek?mpfung von Covid-19 als entscheidend erwiesen, und es gibt allen Grund, dass sie beim n?chsten Mal, wenn die Natur auf uns losgeht (und es wird ein n?chstes Mal geben), noch erfolgreicher sein kann.
In einem kürzlich erschienenen Beitrag in der Harvard Business Review hebt Bhaskar Chakravorti, Autor und Dekan für Global Business an der Fletcher School der Tufts University, die zahlreichen M?glichkeiten hervor, wie KI w?hrend der Pandemie versagt hat. Zwar kann man mit Fug und Recht behaupten, dass die KI bei dieser Aufgabe gr??tenteils versagt hat, doch liefert die Untersuchung auch eine Vorlage für die Korrekturma?nahmen, die für einen gr??eren Erfolg in der Zukunft erforderlich sind.
Ein guter Anfang
Zum einen, so Chakravorti, hat die KI zwar als erste ein seltsames neues Virus in Wuhan, China, identifiziert, aber Folgestudien haben gezeigt, dass die meisten Modelle wichtige Trends bei der Prognose, der Diagnose, dem Ansprechen auf die Behandlung und einer Reihe anderer Faktoren nicht vorhersagen konnten.
Die meisten dieser Probleme lassen sich auf vier Schlüsselfaktoren zurückführen:
Schlechte oder unvollst?ndige Daten: Die meisten Informationen waren aufgrund der sich schnell ?ndernden Bedingungen und der Unf?higkeit, auf eigene Systeme und Infrastrukturen zurückzugreifen, schwer zu beschaffen. (Lesen Sie dazu: 5 Strategien für die Verwaltung unstrukturierter Daten)
Automatisierte Diskriminierung: Die meisten Algorithmen wurden auf Daten trainiert, die Verzerrungen bei der Verfügbarkeit von Gesundheitsleistungen, soziale Ungleichheit und in einigen F?llen Misstrauen gegenüber dem Gesundheitssystem widerspiegeln. (Passend dazu: Kann KI Vorurteile haben?)
Menschliches Versagen: Ob es sich nun um mangelhafte Dateneingabe oder fehlende Anreize für einen effektiven Datenaustausch handelt, letztlich sind Menschen dafür verantwortlich, die KI in die richtige Richtung zu lenken, und Menschen machen Fehler.
Komplexe globale Zusammenh?nge: Angemessene Interventionen müssen sich durch eine Vielzahl soziopolitischer, institutioneller und kultureller Konventionen bewegen, für die selbst die KI schlecht gerüstet ist.
Allerdings liegen diese Probleme nicht in den KI-Modellen selbst, sondern in der Art und Weise, wie sie trainiert und eingesetzt werden.
Um sie zu l?sen, bedarf es zweifellos einer globalen Anstrengung, die glücklicherweise, wenn auch in begrenztem Umfang, bereits Gestalt annimmt.
Ein weiteres Problem ist die Neigung von Pandemien, sich in der Anfangsphase des Ausbruchs schnell auszuweiten. Dies führt dazu, dass Regierungen und ihre Gesundheitssysteme auf dem falschen Fu? erwischt werden.
KI kann ebenfalls schnell skalieren, aber sie muss für etwas so Komplexes wie einen unbekannten Erreger im Voraus optimiert werden. Das U.S. National Institute of Health (NIH) prüft derzeit das in Australien entwickelte EPIWATCH-System als Instrument zur schnellen Pandemiebek?mpfung, das seine Wirksamkeit bereits bei anderen sich schnell ausbreitenden Viren wie Ebola unter Beweis gestellt hat.
Gleichzeitig integriert das NIH Open-Source-KI und Risiko-Intelligenz in seine bestehenden Früherkennungs-Tools wie die ARF-Plattform (Automated Red-Flagging) und das geografische Informationssystem (GIS).
Direkt von der Quelle
Aber auch die leistungsf?higste KI der Welt ist nur von begrenztem Nutzen, wenn die Daten, die sie erh?lt, ungenau oder nicht aktuell sind, und die offiziellen Kan?le für den Informationsaustausch sind oft langsam und nicht immer vertrauenswürdig. Aus diesem Grund beginnen Forscher damit, soziale Medien zu nutzen, um Erkenntnisse direkt von der Quelle zu gewinnen: den Patienten.
Ein gemeinsames Team der UCLA und der UC-Irvine erhielt kürzlich einen Zuschuss in H?he von 1 Million Dollar vom Predictive Intelligence and Pandemic Program der National Science Foundation für ein Projekt, das alle Arten von sozialen Medien durchforstet, um Risikofaktoren zu erkennen, bevor sie den Gesundheitsorganisationen bekannt werden. Die Aufgabe umfasst die schnelle Analyse von Milliarden von Tweets, Posts, Updates und anderen Daten auf allen wichtigen Social-Media-Plattformen, die das Team in einer durchsuchbaren Datenbank zusammengestellt hat, die bis ins Jahr 2015 zurückreicht.
In einigen F?llen umfasst der Prozess die Suche nach einem einfachen Begriff wie “Husten” und die anschlie?ende Eingrenzung der resultierenden Daten nach Alter, Datum, geografischem Standort und anderen Variablen. Derzeit versucht das Team, seine Algorithmen zu verfeinern, um zwischen medizinischen Begriffen wie “Fieber” und sogar “Sterben” und ihren umgangssprachlichen Definitionen, die sich im Laufe der Zeit entwickelt haben, zu unterscheiden.
Die Quintessenz
All dies ist zwar beeindruckend, aber es gibt keine Garantien, wenn man es mit den Launen der Natur zu tun hat. Es gibt einen Grund dafür, dass die meisten Viren aus der Zeit vor der Entstehung des modernen Menschen stammen: Sie sind nicht nur z?h, sondern auch anpassungsf?hig. Im Grunde genommen verlangen wir von der KI also, dass sie vorhersagt, wie sich eine Spezies in einer sich st?ndig ver?ndernden Umgebung entwickeln wird, und das ist eine gro?e Aufgabe.
Aber eines ist klar: Der Mensch allein ist dieser Aufgabe nicht gewachsen. Wenn die KI wegen ihrer potenziellen F?higkeit, der Menschheit zu schaden (was weitgehend theoretisch ist), nicht in diesen Kampf einbezogen wird, werden wir eines Tages mit einer weiteren Pandemie konfrontiert werden. Und diese k?nnte weitaus schlimmer sein als die letzte.
Wie Marc Andreessen, Mitbegründer und General Partner der Risikokapitalgesellschaft Andreessen Horowitz, in seinem jüngsten Artikel feststellte, liegt das eigentliche Risiko darin, die Entwicklung der KI nicht mit maximaler Kraft und Geschwindigkeit voranzutreiben. Andreessen fügte hinzu:
Hier steht viel auf dem Spiel. Die Chancen sind gewaltig. KI ist m?glicherweise das Wichtigste – und Beste -, was unsere Zivilisation je geschaffen hat, sicherlich auf einer Stufe mit Elektrizit?t und Mikrochips und wahrscheinlich noch darüber hinaus. Die Entwicklung und Verbreitung von KI – weit entfernt von einem Risiko, das wir fürchten sollten – ist eine moralische Verpflichtung, die wir uns selbst, unseren Kindern und unserer Zukunft gegenüber haben. Mit KI sollten wir in einer viel besseren Welt leben, und jetzt k?nnen wir es.