Das Computer History Museum hatte heute eine Veranstaltung zum Thema Our Relationship with AI, zu Gast waren der Siri-Erfinder Tom Gruber (jetzt bei Apple), IBM Distinguished Scientist Francesca Rossi und Subbarao Kambhampati, Präsident der Association for the Advancement of AI. Das ist eine ähnlich lustige Abkürzung wie IEEE. Die Podiumsdiskussion zog sich etwa eine gute Stunde, dann kamen noch Fragen aus dem Publikum dazu. Ein paar wichtige Punkte habe ich im Folgenden aufgelistet.
AI (Artificial Intelligence) ist nichts Neues. 1962 wurde geschätzt, dass es noch 10 Jahre bis zu überall AI dauern würde. Trends wie AI werden häufig durch Medien beeinflusst, hier wurden die Filme 2001: A Space Odyssey und natürlich auch die Star-Trek-Reihe benannt. Eigentlich hätte also nach der Knight-Rider-Serie massiv etwas in Richtung autonomer Fahrzeuge passieren müssen, aber scheinbar klappt das nicht immer. Aber der aktuelle Hype um AI wurde klar als solcher bezeichnet.
Ein neuer Aspekt in Bezug auf Europa war für mich die Datenschutz-Grundverordnung ab Mai 2018, dort insbesondere die Algorithmen-Transparenz. Ganz gut beschrieben ist das hier: Will AI be Illegal…
Algorithm transparency.
This one is particularly tricky, as it states that European residents have a “right to explanation” when an automated decision was made about them. The logic behind it is to avoid discrimination and implicit bias by enabling people to go to court if they feel unfairly treated. But, this would also effectively prohibit the use of deep learning, since it is currently a black box. Many researchers are working on explaining how neural networks make decisions, as this will be a requirement before we can hope for AI to enter areas such as medicine or law.
Man kann also verlangen, zu erfahren, warum eine automatisierte Entscheidung über einen gefällt wurde. Das wiederum macht z.B. künstliche neuronale Netze oder support vector machines ziemlich unmöglich, bzw. das wird zumindest befürchtet, da man keinen tieferen Einblick in deren Entscheidungen bekommt.
AI-Entscheidungen müssen also erklärbar sein, es muss Vertrauen in die Technologie aufgebaut werden — als Data Scientist merke ich das eh ständig: ich brauche keine supertollen Verfahren mit den letzten fünf Promille Genauigkeit im praktischen Einsatz, wenn ich die Sachen nicht plausibel erklären kann.
Ein guter und anschaulicher Fehlschluss kam von Tom: nur weil irgendein Klassifikator irgendeine spezielle Aufgabe viel besser und schneller und zuverlässiger kann als ein Mensch, heisst das nicht, dass dieses Verfahren oder auch ganz viele Kombinationen davon im Allgemeinen besser, schneller und zuverlässiger sind als ein Mensch. Nur weil Deep Blue im Schach den/die Schachweltmeister geschlagen hat, ist Deep Blue dem Menschen nicht im Allgemeinen überlegen.
Der Hype um AI kommt mir ähnlich vor wie der Hype um autonome Fahrzeuge. Und nicht nur mir. Am Ende gibt’s doch nur inkrementelle Verbesserungen und autonome Fahrzeuge sind auch nur zehn Jahre weg.