Big Data: Die Potentiale von Daten verstehen, Projekte daraus verwirklichen und seine Daten entfalten.

In einem gewissen Sinne können Maschinen wie Computer keine Intelligenz erlangen. Zumindest keine Intelligenz wie die, über die Menschen verfügen. Das hat der Regisseur Stanley Kubrick bereits 1968 erkannt, als die Erforschung von künstlicher Intelligenz (KI) gerade ihre erste Blüte erlebte. In seinem Film „2001 – Odyssee im Weltraum“ dreht sich ein Teil der Handlung um die bemannte Raumfahrt. Auf einem Raumschiff steuern jedoch nicht Menschen, sondern der Supercomputer HAL das Schiff, dessen menschliche Besatzung sich im Tiefschlaf befindet.

HAL gibt vor, verstehen, sprechen, handeln und sogar fühlen zu können wie ein Mensch. Ganz ähnlich simulieren auch digitale Assistenten wie Siri und Cortana die Fähigkeiten, zu verstehen und antworten zu können. Zu tatsächlich menschenähnlichen Empfindungen und Verhaltensweisen wird HAL im Film bezeichnenderweise aber erst in dem Moment befähigt, in dem er abgeschaltet wird. Dass die Frage nach dem Überleben bzw. das Bewusstsein der eigenen Sterblichkeit entscheidend für die Entwicklung von Intelligenz ist, ist auch eine zentrale These der Intelligenzforschung.

Die Intelligenz der Rechenmaschinen

Dennoch können schon heute Computer bestimmte Aufgaben sehr viel schneller und sehr viel besser erledigen als Menschen. Es stellt sich also die Frage, wie ihre Intelligenz zu erklären ist. Als Marvin Minsky am MIT in Boston in den 1950er Jahren an der Erforschung der künstlichen Intelligenz arbeitete, versuchte er mit technischen Mitteln, neuronale Netzwerke zu simulieren. Denkt man an Big-Data-Frameworks wie Hadoop, ist dieser Ansatz auch heute in gewisser Weise wieder die Grundlage für die Weiterentwicklung der künstlichen Intelligenz.

[display_posts post_type=“post“ number=“3″ posts=“1430,1332,1260,“ layout=“grid“ headline=“Mehr zum Thema Big-Data-Frameworks:“ button=““ button_link=““ orientation=“center“]

Allerdings werden die Systeme nicht intelligenter, sondern die Rechenleistung der einzelnen Rechner in Netzwerkverbünden schneller und ihre Speicherkapazität größer. Dies sind die entscheidenden Zutaten für die neue Form der künstlichen Intelligenz, die in den nächsten Jahren in immer mehr Bereichen Anwendung finden werden. Das lässt sich am Erfolg des Computerprogramms Watson zeigen. Im Falle von Watson beruht das beeindruckende Ergebnis seiner Leistung auf einem Rechnerverbund von 90 Rechnern mit 19 Terabyte Arbeitsspeicher, die durch Apache UIMA und Hadoop parallel betrieben werden.

[selectivetweet]Computer erledigen bestimmte Aufgaben besser als Menschen. Wie ist ihre #Intelligenz zu erklären?[/selectivetweet]

Wie unterscheidet sich Denken von Deep Learning?

Ein menschliches Gehirn vollzieht nicht dieselben Berechnungen wie Watson und braucht einfach länger dafür. Die Kognition schafft das Lösen von Denkaufgaben gewissermaßen durch Tricks wie durch Abstraktion. Denkprozesse sind andererseits auch hochgradig von Gefühlen und Intuition geprägt. Und schließlich spielt das Unbewusste eine nicht zu unterschätzende Rolle in der menschlichen Psyche. All diese Dinge werden nicht von Algorithmen abgebildet oder nachgeahmt. Maschinen gehen eigene, mit menschlichem Denken nur bedingt vergleichbaren Lösungswege.

[url_preview orientation=“left“ newtab=“true“]https://www.ibrahimevsan.de/fundgrube/deep-dream-wenn-computer-traeumen-lernen/[/url_preview]

Bei der Nachahmung von neuronalen Netzwerken mit technischen Mitteln spricht man von „Deep Learning“. Auch diese Algorithmen nutzen Abkürzungen und wiederkehrende Muster (Pattern Recognition), um die Rechenprozesse abzukürzen. Das macht die scheinbar intelligenten Programme so effektiv und dem menschlichen Gehirn zum Teil sogar überlegen. Ein essenzieller Bestandteil auf dem Weg zur Erzeugung von intelligenten Programmen sind Trainingsphasen, in denen die Algorithmen wiederkehrende Muster zu erkennen lernen.

Wenn Watson beispielsweise trainiert wird, bei medizinischen Diagnosen zu helfen – etwa bei der Erkennung von Krebs – werden zunächst unzählige Scans ausgewertet, um zu lernen, die Wahrscheinlichkeit einer Erkrankung zu erkennen. Die Trefferquote von Watson ist überwältigend. Dennoch gilt in der Praxis, dass am Ende eines Diagnoseprozesses nach wie vor das Urteil des Arztes steht. Nur dieser hat den Gesamteindruck von einem Patienten. Der Blickwinkel auch von noch so intelligenten Algorithmen wird immer beschränkt bleiben. Sie basieren auf der Logik der ihrer Programme und sind darauf trainiert, spezielle Aufgaben hervorragend zu lösen. Sobald die Fragestellungen zu komplex werden, wächst die Anzahl der zu berechnenden Möglichkeiten in einem neuronalen Netz exponentiell und erfordert eine enorme Rechenleistung.

KI und der Faktor Mensch

Intelligente Programme müssen trainiert werden, um intelligent zu sein. Sie müssen wissen, ob das errechnete Ergebnis das richtige ist. Das Training ist einer der großen Kostenfaktoren bei der Entwicklung der KI. Eines der wichtigsten Anwendungsbiete von intelligenten Programmen ist derzeit die Entwicklung des autonomen Autos. Die Herausforderung an die Algorithmen: das Erkennen und richtige Verstehen von Straßenschildern. Google nutzte schon in Vergangenheit seine eigenen Nutzer, um die Intelligenz neuer Anwendungen zu verbessern. Kostenlose Services wie die lange angebotene kostenlose Telefonhotline, über die Nutzer Google-Suchanfragen mit ihrer natürlichen Sprache stellen konnten, verbesserten die Spracherkennungsalgorithmen. Heute verfügt Google dank dieser Erfahrung über eine der besten Spracherkennungen und nutzt sie für den Dienst „Ok Google“.

[selectivetweet]#DeepLearning ist eine Schlüsseltechnologie, um intelligente Programme zu trainieren.[/selectivetweet]

Wie der Medien- und Technologiekritikers Evgeny Morozov kürzlich beobachtet hat, passiert dies höchstwahrscheinlich auf ähnliche Weise mit den Systemen, die für das selbstfahrende Auto nötig sind. Nutzer von Google Scholar müssen einen Turing-Test bestehen, um bestimmte Funktionen zu nutzen. Dieser besteht aus Captchas, die Bilder von Straßenschildern darstellen, die ausgewertet werden müssen. Die Vermutung liegt nahe, dass die Nutzer damit die intelligenten Algorithmen für Googles selbstfahrendes Auto trainieren.

Was passiert, wenn Maschinen die Arbeit von Menschen übernehmen?

In einer aktuellen FORSA-Umfrage äußerten sich viele Menschen positiv zum Thema KI. Dennoch herrscht nach wie vor die Meinung, dass nur Spezialgebiete wie Wissenschaft, Technik und Militär von den Entwicklungen im Bereich KI profitieren werden. Nur acht Prozent der befragten Erwerbstätigen sehen ihre Arbeitsstelle durch KI bedroht. Aber immerhin sehen etwa 50 Prozent durchaus die Möglichkeit, dass ihr beruflicher Alltag in den kommenden fünf Jahren durch den Einsatz von intelligenten Maschinen verändern wird.

Neben der Akzeptanz durch die Menschen selbst, wird ein weiterer Aspekt eine entscheidende Rolle spielen, ob und in welchem Umfang in Zukunft intelligente Software und smarte Maschinen immer stärker in den Alltag eindringen. Die Frage: Wer übernimmt die Verantwortung – sowohl in juristischer wie in moralischer Hinsicht – für Handlungen und Entscheidungen von Programmen und Maschinen?

[highlight_area headline=“Zukunft und Trends der digitalen Welt“ button=“Mehr erfahren“ button_link=“https://bigdatablog.de/speaker/“ button_target=“_blank“ icon=“false“]Big Data ist auch Thema auf deiner Veranstaltung? Wir können dir noch einige Speaker empfehlen.[/highlight_area]