Die ChatGPT-Entwicklerfirma OpenAI macht sich Gedanken darüber, wie Menschen eine potenzielle digitale „Superintelligenz“ kontrollieren könnten. „Menschen werden nicht in der Lage sein, verlässlich Systeme mit Künstlicher Intelligenz zu beaufsichtigen, die viel klüger als wir sind“, stellte die Firma aus San Francisco in einem Blogeintrag am Mittwoch fest. Deshalb solle ein automatisiertes Verfahren dafür ausgearbeitet werden.
Das Ziel sei, die zentralen technischen Herausforderungen für ein solches System binnen vier Jahren zu bewältigen, hieß es. OpenAI wolle dafür ein Fünftel der zur Verfügung stehenden Rechenkapazität aufwenden. Das Entwicklerteam solle vom Chefwissenschaftler Ilya Sutskever mit angeführt werden. Auch wenn die „Superintelligenz“ aus dem Computer derzeit noch in weiter Ferne zu sein scheine, halte OpenAI sie noch in diesem Jahrzehnt für möglich. Sie werde viele Probleme lösen helfen und die folgenschwerste Erfindung der Menschheit sein.
Der Vorstoß von OpenAI folgt auf die Warnung von Branchenexperten, die Künstliche Intelligenz (KI) mit existenziellen Gefahren in Verbindung bringen. Unter den Unterzeichnern befindet sich auch der CEO von OpenAI, Sam Altman. Um welche Bedrohungen es sich genau handele, wurde von der Firma nicht erläutert. Kritiker führen deshalb an, dass solche Warnungen von aktuellen Problemen der KI wie beispielsweise der Diskriminierung in Algorithmen ablenken würden.
OpenAI entwickelte unter anderem den Chatbot ChatGPT, der einen neuen Hype rund um KI auslöste. Das Programm kann Sätze kreieren, die von denen eines Menschen kaum zu unterscheiden sind. Es wurde dafür mit gewaltigen Datenmengen trainiert und schätzt auf dieser Basis Wort für Wort ab, wie ein Satz weitergehen sollte. Dieses Prinzip sorgt allerdings auch dafür, dass ChatGPT mitunter völlig falsche Informationen ausgibt.