Studie: 50 Prozent der Systeme für "Künstliche Intelligenz" schummeln
Seite 2: Jeder kann KI "machen"
Weil sie die nötige Infrastruktur mit ständig verfügbaren Hochleistungsrechnern und Cloud-Speichern hätten, seien Amazon, Google, Microsoft und Facebook "so weit vorn", konstatierte Morris Riedel von der Helmholtz-Gemeinschaft. Mittlerweile könnten sich selbst Startups und Firmen aus dem Mittelstand den Rückgriff auf die erforderlichen technischen Architekturen für Künstliche Intelligenz leisten, da etwa kostengünstige Grafikprozessoren (GPUs) "perfekt" seien für Algorithmen rund ums Maschinenlernen. Da es ferner dazu passende Open-Source-Rahmenwerke gebe, könne quasi jeder Interessierte "direkt anfangen, KI zu machen".
Bei einschlägigen Anwendungen etwa im Medizin- oder Einzelhandelsbereich komme es oft auch auf die Personalisierung an, gab Riedel zu bedenken. Hier werfe die Datenschutz-Grundverordnung (DSGVO) die europäischen Entwickler "etwas zurück gegenüber den USA und China". In Übersee habe sich etwa bereits mit "Patients like me" eine Art "Facebook für Kranke" entwickelt, wofür der Professor am Forschungszentrum Jülich Verständnis hat: "Wenn ich einmal krank bin, ist der Datenschutz vielleicht teilweise nicht mehr so wichtig." Ähnlich sei es bei Strategien, um Fußgängerzonen wiederzubeleben: In China werde hier nur noch anhand von Nutzerbewertungen eingekauft.
Haftung bei Fehlern
Emmanuel Müller, Datenwissenschaftler an der Uni Bonn, machte den Schutz von personenbezogenen Daten dagegen als eine der "großen Herausforderungen für Informatiker" aus, um etwa Vertrauen in Assistenzsysteme zur Krebsbekämpfung bei Patienten und Ärzte aufzubauen. Genauso müsse etwa noch geklärt werden, wer im Fehlerfall haftet. Der Vertreter der Fraunhofer-Gesellschaft warb dafür, die vielfach frei als Open Source verfügbaren Big-Data-Systeme zu zertifizieren und so besser abzusichern.
Für einen dezentralen Ansatz, um die für die oft schon jahrzehntealten Algorithmen für lernende Systeme in Europa mit ausreichend Trainingsdaten zu versorgen, sprach sich der Direktor der Technischen Informationsbibliothek (TIB) Hannover, Sören Auer, aus. Damit könne Europa auch der Heterogenität Rechnung tragen und sich gegen zentrale Datensilos aussprechen, wie sie die US-Tech-Riesen hegten. Weiter sprach sich der Forscher der Leibniz-Gemeinschaft dafür aus, wissenschaftliche Literatur stärker semantisch zu strukturieren, "damit KI uns unterstützen kann, um einen Überblick über den Stand der Forschung in einem Gebiet zu bekommen".
Freiräume für das Menschliche
Zuvor hatte Alexander Filipović von der Hochschule für Philosophie München angesichts des zunehmenden Einsatzes von KI-Systemen nach "Freiräumen für das spezifisch Menschliche" gerufen, "was nicht automatisiert werden kann" sowie "so schräg und anders ist, dass selbst selbstlernende Maschinen kapitulieren". Zudem müsse es Abwehrrechte etwa gegen die Gesichtserkennung geben.
Der Medienethiker bewertete KI als zweischneidiges Schwert. Einerseits könne die Technologie "unsere Freiheit erweitern" und den Menschen von äußeren Zwängen befreien oder etwa das Kernelement der Autonomie im Alter durch intelligente Pflegeroboter bewahren helfen. Andererseits gingen solche Anwendungen oft "mit Unterdrückungseffekten" oder der Übernahme maschineller Verhaltensweisen einher. Letztlich glaubt der Geisteswissenschaftler, dass sich mit KI "unser Selbstverständnis sehr stark ändern wird: Wir werden zu neuen Menschen." (olb)