Dass Google in Europa in seinem Forschungszentrum in Zürich seine Künstliche Intelligenz KI entwickelt, ist inzwischen nichts Neues mehr. Doch wie die Wissenschaftler und Programmierer den Computern beibringen, beispielsweise einen Song zu erkennen oder aus vielen verschiedenen Tierbilden das gezeigte Tier mit Namen zu erkennen, ist vielen ein Rätsel.
Schon seit einigen Jahren verbessern sich die Computer immer mehr, was ihre Treffsicherheit anbelangt. Diese bezieht sich nicht nur auf das Erkennen von Bildern, sondern auch auf Spracherkennung, Übersetzung und die Analyse von Daten. Jedoch wächst die riesige Datenmenge exponentiell an und vervielfältigt sich ständig.
Lernen mit Hilfe eines neuronalen Netzes
Ein wichtiger Bestandteil von KI-Systemen sind deshalb Werkzeuge, wie das maschinelle Lernen. Dazu braucht man jedoch auch Programmierer, die den Maschinen die Probleme erklären können. Da sich dies in vielen Situationen als schwierig gestaltet hat, sind die Forscher dazu übergegangen, die Computer mit Hilfe eines neuronalen Netzes lernen zu lassen. So wird ein Computersystem beispielsweise mit bis zu einer Million Bildern von Katzen gefüttert, bis es eine solche selbstständig erkennen kann.
Hat das System diese Verallgemeinerung erkannt, ist es in der Lage, Bilder mit einer sehr hohen Treffsicherheit und wesentlicher schneller als in menschlicher Geschwindigkeit zu analysieren. Diese Fähigkeit ist vor allem in der Medizin, zum Beispiel in der Erkennung von Krebszellen, von großem Nutzen. Wie diese Verallgemeinerung des Systems jedoch genau funktioniert, verstehen jedoch auch die Wissenschaftler, die die mathematischen Regeln und Algorithmen für die KI geschrieben haben, oftmals nicht genau. Fakt ist – was dem Computersystem fehlt ist der gesunde Menschenverstand. Damit ist die Fähigkeit gemeint, sinnvolle Rückschlüsse zu ziehen.
Probleme durch die Programmierung von Menschenhand
Dadurch, dass die Künstliche Intelligenz von Menschen trainiert und programmiert wird, werden die Trainingsdaten aber auch massiv von menschlichem Denken beeinflusst. Eine zentrale Aufgabe, der sich die KI Forschung in Zukunft widmen muss ist, die menschlichen Vorurteile bei der Auswahl, der Menge und der Qualität der Trainingsdaten zu eliminieren. Das größte Problem stellt dabei die Verzerrung zu Ungunsten von Minderheiten dar. Am schlimmsten könnte dies ausgehen, wenn das System sich bei einer Zuordnung sicher ist, jedoch total danebenliegt. Das Problem ist zwar erkannt, jedoch noch keine Lösung parat.
Vorurteile in der Technik erfordern ein proaktives Handeln
Damit diese Probleme verschwinden, muss sich die Technik ständig weiterentwickeln und transparenter werden. Experten, die sich mit KI Research beschäftigen, sind der Meinung, es sei an der Zeit aktiv mitzubestimmen, was bei KI geschieht. Interessant wird es auch sein zu sehen, wie sich die voranschreitende Einbettung der KI auf die Suchergebnisse in Google auswirken wird. Es gibt bereits erste Bestrebungen, Suchergebnisse auf Suchanfragen auszurichten, die per Sprache, also über Google Assistant, Siri oder Alexa, getätigt wurden. Wie sich dieses Feld weiterentwickeln wird und ob es von dauerhafter Relevanz für das Suchverhalten sein wird, bleibt abzuwarten.