ChatGPT ist in aller Munde. Die künstliche Intelligenz von OpenAI ist in der Lage, auch sehr unpräzise formulierte Fragen zu beantworten. Außerdem kann ChatGPT Code schreiben und verbessern, Matheaufgaben lösen und dichten. Was auf den ersten Blick großartig ist, wirft auf den zweiten mehrere Fragen auf. Wer stellt sicher, dass die Informationen, mit denen die künstliche Intelligenz gefüttert wird, objektiv und richtig sind? Kann das riesige Potential von ChatGPT missbraucht werden? Diesen Fragen gehen wir im folgenden Artikel auf den Grund.
ChatGPT: Was ist Objektivität?
„Objektivität bezieht sich auf die Fähigkeit, eine Sache ohne Vorurteile oder persönliche Meinungen zu betrachten. Es bedeutet, dass man sich bemüht, die Dinge so zu sehen, wie sie tatsächlich sind, und nicht durch die Brille der eigenen Vorurteile oder Perspektiven.“
Diese Definition spuckt ChatGPT aus, wenn man sie fragt, was Objektivität ist. Im Weiteren führt sie aus, warum Objektivität für Wissenschaft und Journalismus wichtig ist. Die Definition von ChatGPT ist so lang, dass die Auflistung aller relevanten Punkte den Umfang dieses Artikels sprengen würde. Es fällt zudem auf, dass die Antwort der Künstlichen Intelligenz (KI) sehr schlüssig und vertrauenswürdig klingt. Doch woher hat ChatGPT dieses Wissen? Um zu verstehen, wie eine künstliche Intelligenz funktioniert, sollte man sich verdeutlichen, wie gigantisch die Datenmenge ist, mit der ChatGPT trainiert wurde. KIs können nur das wieder geben, was sie bereits wissen. Ein selbstständiges Denken und Erlernen von Neuem ist ChatGPT nicht möglich. Das unterscheidet die künstliche – noch – von der menschlichen Intelligenz.
ChatGPT: Woher kommt das Wissen?
Eben diese menschliche Intelligenz ist es, welche die KI mit Informationen füttert. Im Fall von ChatGPT – eigentlich müsste es korrekterweise ChatGPT-3 heißen – sind das 175 Milliarden Parameter. Parameter sind dabei Artikel, Studien und Dokumente jeglicher Art, aus denen ChatGPT ihr Wissen bezieht. ChatGPT-4, mit deren Veröffentlichung wir frühestens Anfang des kommenden Jahres rechnen können, soll auf 100 Billionen solcher Parameter zugreifen können. Bei solchen Zahlen stellen sich zwei Fragen. Zum einen wird es spannend zu sehen, was die KI mit der 500-fachen Menge an Wissen anstellen kann, wenn sie jetzt doch schon so beeindruckend ist. Zum anderen wäre es gut zu wissen, wer sicherstellt, dass die zu Grunde liegenden Daten in irgendeiner Form verifiziert werden. Sind diese objektiv richtig oder kann ChatGPT missbraucht werden?
ChatGPT: Wer sichert die Objektivität
„In der Wissenschaft und in der journalistischen Berichterstattung ist Objektivität von großer Bedeutung, da sie dazu beitragen kann, dass Informationen und Meinungen unvoreingenommen präsentiert werden. Durch die objektive Betrachtungsweise können wir besser verstehen, was in der Welt um uns herum tatsächlich passiert und wie sich Dinge verändern, anstatt uns von unseren eigenen Vorurteilen leiten zu lassen.“
Das zumindest sagt ChatGPT in ihrer Definition der Objektivität. Auf Basis dieser Definition ist die Vermittlung von Wissen also wertlos, sollte sie nicht objektiv richtig sein. Auf die Frage, wer denn sicherstelle, dass die Informationen hinter ChatGPT objektiv richtig sind, antwortet die KI sinngemäß: Eine künstliche Intelligenz hat selbst keine Möglichkeit, die Daten zu überprüfen, mit denen sie trainiert wird. OpenAI, das Unternehmen hinter ChatGPT „hat sorgfältig darauf geachtet, dass das Wissen, dass mir zur Verfügung gestellt wurde, von verlässlichen und seriösen Quellen stammt.“
Fazit: Kann ChatGPT objektiv sein?
Hinter der Künstlichen Intelligenz, über die aktuell die ganze Welt spricht, steht ein US-amerikanisches Unternehmen, welches hauptsächlich von Elon Musk und Microsoft finanziert wird. Das Potential, welches ChatGPT besitzt, nämlich eines Tages die Googles und Wikipedias dieser Welt als Quelle Nummer 1 abzulösen, kann sich von jetzt auf gleich zur Gefahr hin wandeln. Die KI selbst kann keine Objektivität feststellen und ihr vorgelegte Daten nicht überprüfen. Was es für den klassischen Journalismus und die Wissenschaft gilt, muss auch für künstliche Intelligenz wie ChatGPT gelten: Quellen müssen ersichtlich und nachvollziehbar sein. Deren Seriosität und Richtigkeit muss überprüfbar sein und nicht unter der Kontrolle eines Unternehmens mit Geldgebern stehen, welche andere Interessen als die reine Vermittlung von Wissen haben könnten.
Neue Kommentare