Das KI-Unternehmen OpenAI plant offenbar den Einstieg in den Social-Media-Markt mit einem radikalen Konzept. Ein neues OpenAI soziales Netzwerk soll ausschließlich echten Menschen vorbehalten sein, während Bots und Fake-Profile konsequent ausgeschlossen werden. Dafür zieht das Unternehmen allerdings kontroverse Methoden zur Identitätsprüfung in Betracht, die tief in die Privatsphäre der Nutzer eingreifen könnten.
Die Idee zielt darauf ab, ein Kernproblem aktueller Plattformen wie X (ehemals Twitter), Instagram oder TikTok zu lösen. Dort prägen automatisierte Accounts, sogenannte Bots, zunehmend die Debatten und fluten die Feeds mit Spam oder manipulativen Inhalten. Dieses Problem verschärfte sich besonders bei X nach der Übernahme durch Elon Musk, was zu verzerrten Diskussionen und minderwertigen Inhalten führte.
Das Problem: Bots und Fakes in sozialen Medien
Automatisierte Bot-Netzwerke sind längst zu einer ernsthaften Herausforderung für soziale Plattformen geworden. Sie imitieren menschliches Verhalten, verbreiten massenhaft Inhalte und steigern künstlich die Interaktionsraten. Dadurch wird nicht nur die Reichweite von Beiträgen verfälscht, sondern auch die öffentliche Meinungsbildung gezielt beeinflusst.
Plattformen wie X haben zuletzt versucht, mit angepassten Regeln für ihre Programmierschnittstellen (APIs) gegenzusteuern. Insbesondere wurden Anwendungen blockiert, die Nutzer finanziell für das Posten von Beiträgen belohnten. Solche Systeme schufen nämlich massive Anreize für Bot-Aktivitäten, da sie auf eine möglichst hohe Frequenz von Interaktionen ausgelegt waren.
OpenAI soziales Netzwerk: Ein radikaler Lösungsansatz
OpenAI möchte dieses Problem an der Wurzel packen, indem der Zugang zum Netzwerk von vornherein streng kontrolliert wird. Anstelle einer einfachen Registrierung per E-Mail oder Telefonnummer sollen Nutzer ihre Identität zweifelsfrei nachweisen. Nur wer als echter Mensch verifiziert ist, soll Teil der Community werden können. Berichten zufolge befindet sich das Projekt noch in einer frühen Phase mit einem kleinen Team von weniger als zehn Mitarbeitern.
Für diese Verifizierung prüft OpenAI offenbar den Einsatz biometrischer Verfahren. Dabei handelt es sich um Technologien, die einzigartige körperliche Merkmale zur Identifizierung nutzen. Im Gespräch sind unter anderem Apples Face ID oder der „World Orb Eyeball Scanner“. Letzterer ist ein Gerät, das über einen Scan der Iris eine eindeutige digitale Identität erstellt und von einem Unternehmen entwickelt wird, das OpenAI-CEO Sam Altman mitgegründet hat.
„Proof of Human“ als Gegentrend zur KI-Flut
Das Konzept eines reinen „Mensch-zu-Mensch-Netzwerks“ trifft einen Nerv der Zeit. In einer digitalen Welt, die zunehmend von KI-generierten Texten, Bildern und Videos geprägt ist, wächst der Wunsch nach Authentizität. Der Nachweis, dass hinter einem Profil ein echter Mensch steht – oft als „Proof of Human“ bezeichnet –, könnte zu einem wichtigen Qualitätsmerkmal werden.
Ironischerweise kommt dieser Vorstoß von einem der führenden Unternehmen der KI-Branche. Während OpenAI selbst Werkzeuge wie Sora entwickelt, die täuschend echte KI-Inhalte erstellen, arbeitet es gleichzeitig an einem geschützten Raum, der frei von solchen Automatismen sein soll. Dieser Ansatz spiegelt die wachsende Erkenntnis wider, dass soziale Medien eine verlässliche Infrastruktur für Information und Austausch bleiben müssen.
Chancen für Nutzer und Marken
Ein verifiziertes, bot-freies Netzwerk würde zahlreiche Vorteile bieten. Interaktionen und Diskussionen könnten an Tiefe und Relevanz gewinnen, da sie ausschließlich von echten Menschen geführt werden. Außerdem wären Reichweiten und Engagement-Zahlen deutlich aussagekräftiger, weil sie nicht durch künstliche Aktivitäten verzerrt sind.
Besonders für Marken und Werbetreibende wäre eine solche Plattform attraktiv. Sie kämpfen seit Jahren mit Problemen wie Fake Traffic und künstlich erzeugtem Engagement, was die Bewertung von Werbekampagnen erschwert. Ein Umfeld, in dem ausschließlich verifizierte Menschen interagieren, verspricht verlässlichere Daten und einen direkteren Zugang zu echten Communities.
Ein hohes Risiko: Die Schattenseiten biometrischer Daten
So vielversprechend die Idee eines bot-freien Netzwerks klingt, so groß sind die Bedenken beim Datenschutz. Biometrische Daten wie ein Iris-Scan oder ein Gesichtsprofil sind hochsensible Informationen. Ein entscheidender Unterschied zu herkömmlichen Zugangsdaten ist ihre Unveränderlichkeit: Ein Passwort lässt sich ändern, ein biometrisches Merkmal jedoch nicht. Werden solche Daten kompromittiert oder missbraucht, ist der Schaden dauerhaft.
Mit diesem Vorhaben dringt OpenAI erneut in einen hochsensiblen Bereich vor, ähnlich wie bei Projekten wie ChatGPT Health für medizinische Daten oder Investitionen in Neurotechnologie. Da die gesetzliche Regulierung oft hinter der technologischen Entwicklung zurückbleibt, liegt die Verantwortung zunehmend bei den Nutzern selbst. Sie müssen bewusst abwägen, welche Daten sie preisgeben und welche Risiken sie dafür in Kauf nehmen.
Artikelempfehlung: OpenAI Prism KI-Workspace: Funktionen, Vorteile und Risiken
