OpenAI, das Unternehmen hinter künstlicher Intelligenz, hat mit der schrittweisen Einführung der lang erwarteten Funktion „Advanced Voice“ für eine ausgewählte Gruppe von ChatGPT-Nutzern begonnen. Diese neue, fortschrittliche Sprachfunktion bietet fünf neue Stimmen, die in der Lage sind, sich Gespräche zu merken und während einer Unterhaltung das Thema zu wechseln.
In einer Mitteilung vom 24. September kündigte OpenAI über die Plattform X an:
„Advanced Voice wird diese Woche für alle Plus- und Team-Nutzer der ChatGPT-App verfügbar sein.“
Das Unternehmen scherzte außerdem, dass die Funktion „Entschuldigung für die Verspätung“ in mehr als 50 Sprachen sagen kann, und bezog sich damit auf die verzögerte Veröffentlichung der Funktion, die ursprünglich früher für die oben genannten Nutzer verfügbar sein sollte.
Der Advanced Voice Mode von ChatGPT
Der Advanced Voice Mode ist ein Upgrade des neuesten ChatGPT 4.0-Modells. Diese Verbesserung sorgt für schnellere und natürlichere Interaktionen mit dem KI-Modell und führt eine Reihe von Neuerungen in Gesprächen ein, die die Kommunikation menschlicher machen.
Ein wichtiger Bestandteil dieser neuen Funktion ist die Einführung von fünf neuen Stimmen: Arbor, Maple, SXol, Spruce und Vale. Diese neuen Stimmen ergänzen die bestehenden Optionen Breeze, Juniper, Cove und Ember. Plus- und Team-Abonnenten erhalten schrittweise Zugang zu diesen neuen Stimmen, die speziell entwickelt wurden, um eine menschlichere Erfahrung zu bieten. Das bedeutet unter anderem, dass Benutzer Gespräche unterbrechen oder das Thema während einer Interaktion mit der KI wechseln können.
Chatbot kann wichtige Gespräche speichern und das Thema wechseln
Darüber hinaus bietet OpenAI die Möglichkeit, personalisierte Anweisungen für die neuen Sprachoptionen festzulegen. Benutzer können beispielsweise spezifische Präferenzen angeben, auf die sich die KI anpasst. Der Chatbot kann auch wichtige Informationen aus früheren Audio-Gesprächen speichern, sodass mehr Kontinuität in den Gesprächen besteht. Obwohl dies vielversprechend klingt, erkannte OpenAI in einer FAQ an, dass die Erfahrung noch nicht perfekt ist, insbesondere bei der Verwendung von Bluetooth oder Lautsprechern in Autos, wo Hintergrundgeräusche die Leistung der KI beeinträchtigen können.
Rechtsstreit zwischen OpenAI und Schauspielerin Scarlett Johansson
Trotz der positiven Resonanz gab es auf X einige kritische Stimmen. Einige Nutzer fanden die neuen Sprachoptionen im Vergleich zum einst geplanten, aber mittlerweile eingestellten Sky-Sprachmodell von OpenAI enttäuschend. Dieses Modell wurde nach einem juristischen Konflikt mit der Schauspielerin Scarlett Johansson eingestellt.
Johansson enthüllte, dass OpenAI-Direktor Sam Altman sie im Jahr 2023 bat, die Stimme von ChatGPT zu werden. Sie lehnte jedoch aus persönlichen Gründen ab. Als OpenAI dann das Sky-Modell für ChatGPT 4.0 auf den Markt brachte, bemerkte Johansson, dass die Stimme ihrer eigenen Stimme auffällig ähnlich klang.
Altman hat die Verwendung der Stimme seither eingestellt und beharrt darauf, dass die Ähnlichkeiten zwischen den Stimmen reiner Zufall waren. Dennoch verstärkte er die Spekulationen durch einen kryptischen Post auf X, in dem er lediglich das Wort „Her“ schrieb. Viele sahen darin eine Anspielung auf den Film „Her“ aus dem Jahr 2013, in dem Johansson die Stimme eines KI-Begleiters spielte.