OpenAI bildet ein neues Team, um "superintelligente" KI unter Kontrolle zu bringen!

In einem am 05.07.2023 veröffentlichten Blog-Beitrag sagen Sutskever und Jan Leike, einer der Leiter des Organisationsteams bei OpenAI, voraus, dass innerhalb des nächsten Jahrzehnts eine KI mit einer Intelligenz, welche die des Menschen deutlich übersteigt, eintreffen könnte. Diese KI wird nicht unbedingt wohlwollend sein und erfordert die Erforschung von Möglichkeiten, sie zu kontrollieren und einzuschränken, betonen Sutskever und Leike.

"Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird", schreiben sie. "Unsere derzeitigen Techniken zur Ausrichtung der KI, wie z. B. das Verstärkungslernen durch menschliches Feedback, beruhen auf der Fähigkeit des Menschen, die KI zu überwachen. Aber Menschen werden nicht in der Lage sein, KI-Systeme, die viel schlauer sind als wir, zuverlässig zu überwachen."

Um die Entwicklung im Bereich "Superintelligenz-Anpassung" voranzutreiben, gründet OpenAI ein neues Superalignment-Team, das von Sutskever und Leike geleitet wird und Zugang zu 20 % der Rechenleistung hat, die sich das Unternehmen bis heute gesichert hat. Zusammen mit Wissenschaftlern und Ingenieuren aus der früheren Alignment-Abteilung von OpenAI sowie Forschern aus anderen Bereichen des Unternehmens wird das Team in den nächsten vier Jahren die zentralen technischen Herausforderungen bei der Steuerung superintelligenter KI lösen.

Wie funktioniert das?

Sutskever und Leike bezeichnen das Projekt als "automatisierten Alignment-Forscher auf menschlicher Ebene". Das übergeordnete Ziel besteht darin, KI-Systeme mithilfe von menschlichem Feedback zu trainieren, KI so zu schulen, dass sie bei der Bewertung anderer KI-Systeme hilft, und schließlich KI zu entwickeln, die sicherstellen kann, dass KI-Systeme die gewünschten Ergebnisse erzielen und nicht aus dem Ruder laufen. OpenAI geht von der Hypothese aus, dass KI bei der Forschung schneller und besser vorankommen kann als Menschen.

"Wenn wir in diesem Bereich Fortschritte machen, können unsere KI-Systeme mehr und mehr unserer Anpassungsarbeiten übernehmen und schließlich bessere Ausrichtungstechniken konzipieren, implementieren, untersuchen und entwickeln, als wir sie jetzt haben", postulierten Leike und weitere Kollegen. "Sie werden mit den Menschen zusammenarbeiten, um sicherzustellen, dass ihre eigenen Nachfolger besser auf die Menschen abgestimmt sind... Menschliche Forscher werden sich mehr und mehr auf die Überprüfung der von KI-Systemen durchgeführten Alignment-Forschung konzentrieren, anstatt diese Forschung selbst zu erstellen."

Natürlich ist keine Methode narrensicher - und Leike, Schulman und Wu räumen in ihrem Beitrag die vielen Einschränkungen von OpenAI ein. Der Einsatz von KI für die Bewertung birgt das Potenzial, Ungereimtheiten, Voreingenommenheit oder Schwachstellen in der KI aufzudecken, sagen sie. Und es könnte sich herausstellen, dass die schwierigsten Teile des Abgleichproblems gar nichts mit der Technik zu tun haben. Dennoch glauben die verantwortlichen Personen, dass es einen Versuch wert ist. "Superintelligenz-Anpassung ist im Grunde ein Problem des maschinellen Lernens, und wir glauben, dass große Experten für maschinelles Lernen - selbst, wenn sie nicht bereits an der Anpassung arbeiten - entscheidend für die Lösung dieses Problems sein werden", schreiben sie. "Wir planen, die Früchte dieser Bemühungen breit zu teilen und betrachten den Beitrag zum Alignment und zur Sicherheit von Nicht-OpenAI-Modellen als einen wichtigen Teil unserer Arbeit."


Bildherkunft: https://stock.adobe.com/de

Kommentare

Kunden unserer Börsenmagazine können Artikel kommentieren, Rückfragen an die Autoren stellen und mit anderen Börsianern darüber diskutieren!