ein Handy
Bildrechte: IMAGO/NurPhoto

Künstliche Intelligenz Wir werden an vielen Stellen feststellen: Das kann der Mensch besser"

16. Mai 2024, 04:59 Uhr

Einen Tag vor der Google-Entwicklerkonferenz hat OpenAI sein neues Modell ChatGPT 4o vorgestellt. Was es besonders macht und was man von ihm erwarten kann, schätzt Eva-Maria Weiß von Heise Online ein.

Google IO: Das ist die Entwicklerkonferenz im Silicon Valley. Hier trifft sich das Who is Who der IT Szene. Dort werden neue Funktionen, Hard- und Software von Google besprochen. Am Dienstag ist die diesjährige Konferenz gestartet. Was Google aber vermutlich so gar nicht gefallen hat: Thema Nummer eins war nicht etwa Google, sondern der neue Stern am KI-Himmel "Chat-GPT" und die dahinterstehende Firma Open AI.

Denn die wiederum hat einen Tag vor der Eröffnung der Google-Konferenz selbst mit Neuigkeiten aufgewartet und ChatGPT-4o angekündigt, eine weitere massive Weiterentwicklung des populären Chatbots. Darüber haben wir mit Eva-Maria Weiß gesprochen, Redakteurin beim Webmagazin Heise-Online.

Frage: Gefühlt hat sich innerhalb der letzten zwölf bis 18 Monate die Welt ja vollkommen verändert, weil plötzlich künstliche Intelligenz überall ist. Bringen Sie uns doch bitte mal auf den aktuellen Stand: Was macht dieses neue Chat-GPT-4-O jetzt noch revolutionärer als die Vorgänger?

Eva-Maria Weiß: Das stimmt: In den letzten Monaten ist viel passiert. Davor allerdings auch schon ungefähr 50 Jahre lang. GPT-4-O, das O steht für Omni. Es ist ein Omni-Modell, tatsächlich ein ganz neues Modell, mit einer ganz neuen Architektur in einer ganz neuen Art. Wobei Open AI nicht besonders viel verraten hat, wie das jetzt funktioniert.

Klar ist aber, dass dieses Modell gleichzeitig Text, Audio und Video – sie nennen es Vision – verarbeiten kann. Und das ist nativ ein Model, also sind nicht mehr mehrere Modelle, die miteinander kommunizieren, wie das vorher war.

Und was ist jetzt der größte Vorteil? Dass es wesentlich schneller geht?

Genau das soll jetzt wesentlich schneller sein und natürlich auch kosteneffizienter, wahnsinnig schnell reagieren, fast so schnell, wie wenn wir Menschen miteinander sprechen.

Okay, jetzt sind wir natürlich dann direkt auch schon bei den Anwendungen. Also haben Sie mal so ein paar Beispiele: Welche praktischen Nutzen haben diese Anwendungen dann vor allem, auch die Geschwindigkeit, mit der sie zur Verfügung gestellt werden können?

Man kann wirklich die Kamera irgendwohin halten – sagt zumindest Open AI, getestet haben wir das noch nicht, das geht noch nicht – und man kann dann fragen: Schau mal, was siehst du da, diese Mathe-Aufgabe? Wie funktioniert die denn? Und man redet dann wirklich wie in Echtzeit mit diesem Bot. Und er kann helfen, Tipps geben oder er kann einem erklären, wie Code funktioniert oder wo Fehler sind.

Was meinen Sie, welche Gefahr geht aus von Open AI aus Sicht von Google und Co. Ist das wirklich ein neuer Player? Oder ist das vor allem viel Hype? Die Nutzerzahlen, die stagnieren irgendwo.

Ja, es ist vor allem viel Hype, und sie schaffen es eben, die Aufmerksamkeit wahnsinnig gut auf sich zu ziehen. Man muss immer sagen, das "T" im Chat GPT hat übrigens Google entwickelt: Also diese Transformer Architektur. Und Google ist einfach nach wie vor ganz vorne was KI anbelangt. Und Google hat auch auf dieser Veranstaltung eine ähnliche Funktion vorgestellt, die gleich mehrere Dienste einbeziehen soll. Also auch bei Google wird es möglich sein, dass wir die Kamera irgendwohin halten und sagen: Hey, was sehe ich denn da eigentlich? Erzählt mir das mal, erklärt mir das mal.

Wird das dann tatsächlich wie bei Star Trek, dass wir wirklich dazu kommen, dass wir uns mit unserem Assistenten unterhalten, der überall um uns herum ist? Und wenn ja, wann ist es vielleicht soweit?

Ich glaube schon, dass wir mit einem klugen Assistenten rechnen können und das auch relativ bald. Aber "klug" ist immer so ein bisschen "na ja", bedingt also. Was zum Beispiel Google wahrscheinlich besser machen wird – mal sehen wann – als bei Open AI, dass der KI Assistent da ein Gedächtnis bekommt. Also, da kann sich dieser Assistent merken: Ich habe doch eben die Brille da hinten auf dem Tisch gesehen, wenn du die jetzt suchst: Da liegt die.

Solche Sachen sind so ein bisschen der Knackpunkt an dem Ganzen. Wie viel, die uns dann wirklich wann und wo helfen können: Das wird sich erst noch zeigen müssen.

Ich glaube, wir werden ganz viele Usecases entwickeln können. Wir werden aber auch in ganz vielen Stellen feststellen: Nein, das kann vielleicht der Mensch doch noch besser. Nee, das hilft jetzt doch nicht. Also lange komplexe Texte verfassen können diese Sprachmodelle einfach immer noch nicht. Zusammenfassungen haben immer noch wirklich auch Probleme, egal, wie lange jetzt die Kontextlänge ist, oder oder. Da sind einfach immer Lücken drin. Und die Texte klingen so ein bisschen Naja. Rechnen können Sie auch immer noch nicht. Also da sind ganz, ganz viele Schwächen. Dennoch wird auf jeden Fall so etwas wie Siri oder Alexa mit Sicherheit sehr bald klüger, als wir es bisher kennen.

Dieses Thema im Programm: MDR AKTUELL | 15. Mai 2024 | 12:48 Uhr