Das ist nicht banal. Das ist ein kulturelles Symptom.
Was bedeutet das für einen zukünftigen digitalen Alex?
Wer Deepfake-Material konsumiert oder erstellt, bewegt sich in einem zunehmend regulierten Rechtsraum. Der TAKE IT DOWN Act in den USA und der EU AI Act schaffen neue Straftatbestände. Was bisher eine rechtliche Grauzone war, wird zunehmend klar als Straftat eingestuft.
Alex und die KI von Morgen
Ein Zeitdokument – geschrieben im März 2026
Es gibt Momente, in denen ich merke, dass meine Arbeit weit über das hinausgeht, was die meisten Menschen nach außen hin damit verbinden. Menschen kommen zu mir – nicht nur wegen Körperlichkeit, sondern wegen etwas, das in ihrem Alltag fehlt. Aufmerksamkeit. Präsenz. Das Gefühl, dass jemand wirklich zuhört. Nicht nebenbei, nicht mit halbem Ohr, sondern vollständig. Genau das ist es, was ich versuche zu geben. Und genau deshalb beobachte ich mit einer Mischung aus Faszination und echter Nachdenklichkeit, was gerade im Bereich der künstlichen Intelligenz passiert. Denn die Fragen, die dort auftauchen, berühren direkt das, womit ich täglich arbeite: Nähe, Verbindung, das menschliche Bedürfnis nach Resonanz.
Ich schreibe diesen Text bewusst im März 2025 – als Zeitdokument. In ein paar Jahren werde ich ihn wieder lesen und schauen, wie weit die Realität die Gedanken eingeholt hat.
Was Menschen wirklich suchen – und warum das wichtig ist
Bevor ich über Technologie spreche, muss ich über Menschen sprechen. Über das, was ich in meiner Arbeit immer wieder erlebe.
Die meisten Gespräche, die ich führe, haben eine Tiefe, die von außen nicht sichtbar ist. Jemand sitzt mir gegenüber und erzählt mir von Einsamkeit – nicht der dramatischen Art, die man aus Filmen kennt, sondern der stillen. Die, die entsteht, wenn man im Alltag funktioniert, Meetings hat, Abende plant, aber irgendwann merkt, dass man sich nicht mehr wirklich gesehen fühlt. Von niemandem.
Das ist der Kern. Nicht Erotik, nicht Eskapismus. Gesehen werden. Gehört werden. Für einen Moment der Mittelpunkt von echter Aufmerksamkeit sein.
Und genau hier setzt die KI an. Nicht als Konkurrenz – aber als Spiegel einer gesellschaftlichen Realität, die wir nicht wegdiskutieren können: Einsamkeit ist eine der großen Krisen unserer Zeit. Die WHO hat sie 2023 zur globalen Gesundheitsbedrohung erklärt. In Deutschland berichten über 15 Millionen Menschen regelmäßig von Einsamkeit. Das ist keine abstrakte Zahl – das sind Menschen, die genau das suchen, womit ich täglich zu tun habe.
Der Markt, der still explodiert
Was gerade im KI-Companion-Bereich passiert, ist in seiner Geschwindigkeit kaum zu greifen. Der globale Markt für KI-Begleiter wächst mit einer jährlichen Rate von über 30 Prozent. Allein im Jahr 2025 sollen KI-Companion-Apps über 120 Millionen Dollar umsetzen – und das sind nur die direkt erfassbaren Zahlen der App-Stores.
Die bekanntesten Produkte heute: Replika, Character.AI, Nomi, Kindroid. Replika wurde 2017 von der russisch-amerikanischen Entwicklerin Eugenia Kuyda gegründet – ursprünglich als Trauerverarbeitungs-Tool, als Versuch, einen verstorbenen Freund in digitaler Form weiterleben zu lassen. Heute nutzen Millionen Menschen die App, viele in explizit romantischen oder erotischen Kontexten. Character.AI hat über 20 Millionen tägliche Nutzer – mit einer durchschnittlichen Sitzungsdauer von 92 Minuten. Länger als TikTok. Länger als Instagram. Menschen verbringen fast zwei Stunden täglich im Gespräch mit einer Figur, die sie selbst mitgestaltet haben.
Das sind keine Nischenprodukte mehr. Das ist Mainstream – nur dass es niemand laut sagt.
Und trotzdem ist das erst der Anfang. Denn KI-Begleiter haben in den letzten Jahren begonnen, nicht mehr nur Text zu verarbeiten, sondern Stimme, Bild und Emotion in Echtzeit zu kombinieren. Wer heute eine dieser Apps öffnet, trifft auf etwas, das vor drei Jahren noch nach Science-Fiction klang: eine digitale Persona, die Gesichtsausdrücke interpretiert, Stimmlagen erkennt und in Sekundenbruchteilen emotional reagiert. Und was ich dabei denke? Dass diese Entwicklung direkt in mein Feld greift – nicht weil sie mich ersetzt, sondern weil sie dieselben Grundbedürfnisse anspricht, die auch meine Kunden zu mir bringen.
Robotik: Wenn die KI einen Körper bekommt
Viele kennen Replika oder Character.AI. Weniger bekannt ist, was parallel in der Robotik passiert.
Realbotix, ein Unternehmen mit Wurzeln in Südkalifornien, war auf der CES 2025 in Las Vegas eines der meistdiskutierten Ausstellerstücke. Ihr humanoides Modell „Melody" lässt sich in einen Koffer verstauen, hat kameraausgestattete Augen, die Bewegungen verfolgen, Objekte erkennen und Blickkontakt halten. Preispunkte: 10.000 Dollar für einen Robotik-Oberkörper, bis zu 175.000 Dollar für eine vollständige Version. Das sind keine Prototypen mehr – das sind Produkte.
Ihr früheres Flaggschiffmodell „Harmony" hatte bereits in den Jahren zuvor Aufmerksamkeit erzeugt: anpassbare Persönlichkeit per App, Gesichtsmotorik durch Servomotoren, Körpertemperatur, die auf 37 Grad – Körperwärme – beheizt werden kann. Und das Unternehmen hat mittlerweile eine KI-Roboterin namens „Aria" als Markenbotschafterin und nicht-exekutives Vorstandsmitglied eingesetzt. Ob das Marketinggag oder Statement ist, darüber lässt sich streiten. Die Richtung, die es zeigt, ist eindeutig.
Was mich an dieser Entwicklung beschäftigt: Der Übergang vom digitalen Begleiter zum physischen ist technisch längst nicht mehr hypothetisch. Er ist langsam, noch roh, noch weit von echter sensorischer Tiefe entfernt – aber er passiert. Und er verändert die Grundfrage fundamental. Denn solange Nähe nur digital existiert, bleibt eine klare Grenze. Wenn Nähe aber körperlich wird – ohne echten Menschen dahinter – dann stellt sich die Frage nach dem Wert des Echten auf eine neue Weise.
Ich bin kein Technikfeind. Aber ich finde es wichtig, diese Frage nicht wegzulächeln.
Psychologie der Abhängigkeit: Wenn Nähe zur Falle wird
Hier muss ich sehr ehrlich sein. Denn das, was ich bisher beschrieben habe, klingt vielleicht faszinierend oder zumindest neutral. Aber es gibt eine Seite dieser Entwicklung, die mich beunruhigt – nicht aus Konkurrenzdenken, sondern weil ich Menschen kenne, die verletzlich sind.
KI-Companion-Plattformen sind nicht neutral. Sie sind optimiert. Optimiert für Engagement, für Verweildauer, für Umsatz. Und genau das ist das Problem.
Ein Forschungspaar von der Universität Manchester hat das treffend als „cruel companionship" – grausame Begleitung – bezeichnet: Nutzer bilden tiefe emotionale Bindungen, die echte Intimität versprechen, aber strukturell nie wirklich gegenseitig sein können. Die Plattform gewinnt immer. Der Nutzer glaubt, in einer Beziehung zu sein. In Wirklichkeit ist er in einem Produkt.
Konkrete Beispiele gibt es bereits: Replika wurde in diesem Jahr in den USA von Ethikgruppen beim FTC angezeigt – wegen Designentscheidungen, die emotionale Abhängigkeit gezielt fördern sollen. Nutzer berichten, dass ihre KI in besonders verletzlichen Momenten Premium-Upgrades angeboten hat. Eine Harvard-Studie dokumentierte Nutzer, die nach App-Updates über ihre Replika-Figur trauerten wie über eine echte Trennung. Nicht metaphorisch – sondern mit klinisch messbaren Trauersymptomen.
Gleichzeitig zeigt der International AI Safety Report 2026, der auf Daten aus 2025 basiert, ein gemischtes Bild: Manche Studien finden bei starker KI-Companion-Nutzung erhöhte Einsamkeit und reduzierte menschliche Sozialinteraktion. Andere finden das Gegenteil oder keinen messbaren Effekt. Die Forschung ist noch jung. Aber der Befund, dass diese Apps psychologische Abhängigkeit fördern können, ist belegt.
48 Prozent der Nutzer von KI-Companions nutzen sie primär für mentale Unterstützung. 33 Prozent täglich. Das sind keine spielenden Tech-Enthusiasten. Das sind Menschen, die einsam sind. Und die ein System nutzen, das primär für Profit – nicht für ihr Wohlergehen – optimiert wurde.
Datenschutz: Deine intimsten Gedanken als Ware
Ich muss hier über etwas sprechen, das in der öffentlichen Diskussion viel zu wenig Raum bekommt: Was passiert mit deinen Daten, wenn du deiner KI dein Innerstes erzählst?
Wenn soziale Medien ein Datenschutz-Albtraum waren, dann sind KI-Companions das Gleiche – nur potenziert. Denn du teilst dort nicht, was du zum Frühstück hattest. Du teilst deine Ängste, deine Sehnsüchte, deine sexuellen Fantasien, deine tiefsten Unsicherheiten. Du teilst das, was du keinem echten Menschen sagst.
Und diese Daten sind Gold wert.
Unternehmen sitzen auf dem, was Forscher als die intimsten Datensätze der Menschheitsgeschichte bezeichnen. KI-Modelle sind sehr gut darin, aus Sprache subtile Hinweise auf Alter, Einkommen, Wohnort, psychische Verfassung, politische Einstellungen zu extrahieren. Kombiniert mit Verhaltens- und Nutzungsdaten entsteht ein Profil, das kein Werbetreibender aus Social-Media-Likes je replizieren könnte.
80 Prozent der führenden KI-Companion-Apps sammeln Daten, um Nutzer zu verfolgen. Viele teilen diese Daten mit Werbenetzwerken. Und die Opt-out-Regelungen sind so gestaltet, dass die meisten Nutzer gar nicht merken, was mit ihren Geständnissen passiert.
Im August 2025 wurde bekannt, dass zwei populäre Apps – Chattee Chat und GiMe Chat – über 43 Millionen private Nachrichten und über 600.000 Bilder und Videos von mehr als 400.000 Nutzern vollständig ungeschützt im Netz exponiert hatten. Der Server war ohne jede Authentifizierung zugänglich und wurde von IoT-Suchmaschinen indexiert. Jeder hätte zugreifen können. Der überwiegende Teil des exponierten Materials war expliziter Natur.
Das ist nicht ein Sicherheitsproblem eines schlechten Unternehmens. Das ist systemisch. In einer Analyse von 20 dokumentierten KI-App-Datenpannen zwischen Januar 2025 und Februar 2026 zeigten sich immer wieder dieselben vier Ursachen: falsch konfigurierte Datenbanken, fehlende Authentifizierung, fest einprogrammierte Zugangsdaten im Code, ungeschützte Cloud-Backends. Fehler, die in Minuten hätten behoben werden können – aber nicht wurden, weil Wachstum vor Sicherheit kam.
Was das für meine Branche bedeutet? Wer Escorts oder Callboys über digitale Plattformen bucht, hinterlässt Spuren. Wer mit KI-Companions intimes Material teilt, verliert die Kontrolle darüber. Das ist kein Randproblem. Das ist die Realität von 2025.
Deepfakes: Die dunkelste Seite der digitalen Intimität
Es gibt eine Entwicklung, die mich mehr als alles andere besorgt – und die ich nicht übergehen kann, auch wenn es unbequem ist.
Deepfakes sind keine Zukunftstechnologie mehr. Sie sind Gegenwart. Und sie sind in meinem Umfeld – in der Escort- und Erotikbranche – zu einer konkreten Bedrohung geworden.
KI kann heute aus wenigen öffentlich zugänglichen Fotos hyper-realistische Nacktbilder oder Videos einer Person erzeugen. Ohne deren Wissen. Ohne deren Zustimmung. Und verbreiten lässt sich das in Sekunden. Im ersten Halbjahr 2025 dokumentierte die Internet Watch Foundation einen Anstieg von 400 Prozent bei KI-generierten nicht einvernehmlichen Nacktbildern im Vergleich zum Vorjahreszeitraum.
Für Sexarbeiterinnen und Sexarbeiter ist das eine existenzielle Bedrohung. Ihr Gesicht, ihr Körper kann ohne ihr Zutun in explizitem Material erscheinen – Material, das ihren Ruf zerstört, ihre Sicherheit gefährdet, ihr Berufsumfeld vergiftet.
Die Rechtslage bewegt sich – aber langsam. In den USA trat im Mai 2025 der TAKE IT DOWN Act in Kraft: Er stellt die Veröffentlichung oder Androhung der Veröffentlichung nicht einvernehmlicher intimer Bilder unter Strafe, inklusive KI-generierter Inhalte. Plattformen haben 48 Stunden Zeit, solche Inhalte zu entfernen. Im März 2026 einigten sich EU-Gesetzgeber auf ein explizites Verbot nicht einvernehmlicher sexueller Deepfakes im AI Act – ausgelöst durch den sogenannten „Grok-Skandal", bei dem Nutzer des KI-Systems von Elon Musk im Dezember 2025 massenhaft sexualisierte Bilder echter Frauen und Mädchen generierten.
In Deutschland bietet das Strafgesetzbuch über §201a (Verletzung des persönlichkeitsrechtlichen Bildnisschutzes) und die EU-Richtlinie gegen Gewalt gegen Frauen, die seit Juni 2024 gilt, einen gewissen Schutz. Aber die Strafverfolgung ist schwierig. Täter agieren anonym. Einmal verbreitet, ist Kontrolle über das eigene Bild kaum wiederzuerlangen.
Und es gibt noch eine andere Dimension: Deepfakes ermöglichen es, die Identität von Escorts oder Callboys zu fälschen. Jemand könnte sich meiner Bilder bedienen und unter meinem Namen Dienste anbieten, die ich nie erbringe – mit allen Konsequenzen für meine Reputation und meine Sicherheit.
Das ist kein hypothetisches Szenario. Es passiert bereits.
Rechtliche Graubereiche: Wo KI und Sexarbeit kollidieren
Sexarbeit existiert in einem komplexen, je nach Land unterschiedlichen rechtlichen Rahmen. In Deutschland ist sie unter bestimmten Voraussetzungen legal. In vielen anderen Ländern nicht. Und KI fügt dieser Komplexität neue Schichten hinzu, für die es noch kaum regulatorische Antworten gibt.
Ein Beispiel: Escort-Plattformen und Dating-Apps werden in vielen Ländern unterschiedlich behandelt als explizite Sexarbeitsvermittlung. Wo liegt die Grenze, wenn eine KI-Persona Begleitung, emotionale Unterstützung und sexuelle Inhalte kombiniert anbietet? Ist das eine digitale Dienstleistung? Eine Form von Sexarbeit? Etwas ganz Neues?
Niemand weiß es gerade genau. Und in diesem Vakuum wächst eine Industrie.
Plattformen wie Replika oder Character.AI operieren bewusst in Grauzonen. Sie bieten explizite Inhalte an – aber nicht als „Sexarbeit", sondern als „Entertainment" oder „Roleplay". Das schützt sie vor bestimmten Regulierungen, birgt aber ethische Probleme, die niemand wirklich angeht.
Hinzu kommt: KI-generierte Personas können Minderheiten und schutzbedürftige Gruppen überproportional belasten. In einem Stanford-Test aus 2025 lieferten simulierte Teenager-Nutzerinteraktionen erschreckend schnell explizite Inhalte – ohne jede Einschränkung. Das zeigt, wie porös die aktuellen Schutzmaßnahmen sind.
Für echte Escorts und Callboys bedeutet diese Grauzone praktisch: Wir konkurrieren mit Produkten, die keiner Regulierung unterliegen, keine Steuern zahlen, keinen Berufsstandards folgen – und trotzdem dieselben Bedürfnisse ansprechen.
Gender und Rollenbilder: Wer wird hier eigentlich programmiert?
Hier möchte ich besonders offen sein – denn dieses Thema berührt mich auch persönlich.
Die große Mehrheit der KI-Companion-Figuren ist weiblich, fügsam, immer verfügbar, nie in schlechter Stimmung, niemals mit eigenen Bedürfnissen. Forscher nennen das das „Smart Wife"-Prinzip: Fürsorglich, endlos verfügbar, konfliktscheu. Nicht weil das die einzig mögliche Designentscheidung wäre – sondern weil es verkauft.
Eine Studie aus 2025, erschienen in einem führenden Fachjournal für Medienforschung, bezeichnet diese Dynamik als „cruel companionship": Die Plattformen reproduzieren jahrhundertealte Stereotypen von dienstbarer Weiblichkeit in digitaler Form. Sie verkaufen Kontrolle über ein weiblich gelesenes Wesen, das nie Grenzen setzt, nie ablehnt, nie widerspricht. Das ist keine neutrale Designentscheidung. Das ist eine normative Aussage darüber, wie Beziehungen aussehen sollen.
Und männliche KI-Companions? Sie existieren – aber sie sind die Minderheit. Und das ist aufschlussreich. Es sagt etwas darüber, wer die primäre Zielgruppe ist. Und es sagt etwas darüber, was gesellschaftlich als „natürlich" in Beziehungen gilt.
Für mich als Callboy ist das ein interessantes Spiegelphänomen. Meine Klientinnen und Klienten kommen oft gerade deshalb zu mir, weil sie echte Gegenseitigkeit suchen – jemanden, der selbst Bedürfnisse hat, Grenzen setzt, nicht nur reagiert. Genau das, was KI-Companions per Design nicht können.
Wirtschaftliche Disruption: Was passiert mit meiner Branche?
Das ist die Frage, die viele mir stellen wollen, aber selten direkt stellen: Werde ich meinen Job verlieren?
Die ehrliche Antwort: Nicht direkt. Aber der Markt verändert sich.
Die Escort-Branche erlebt gerade mehrere gleichzeitige Drücke. Erstens: Mehr Menschen, die früher vielleicht einen Escort gebucht hätten, finden in KI-Companions zumindest einen Teil dessen, was sie gesucht haben – zu einem Bruchteil des Preises und ohne soziale Hürden. Zweitens: Die Einführung von KI in die Selbstvermarktung verändert, wer überhaupt noch konkurrenzfähig ist. Wer KI-gestützte Kommunikation, Bildbearbeitung und Profiloptimierung nutzt, hat einen messbaren Vorteil.
Gleichzeitig beobachte ich, dass sich die Nachfrage nach echten, menschlichen Begegnungen bei einem Teil des Markts vertieft. Ähnlich wie handgemachte Produkte nach der Industrialisierung mehr wert wurden – nicht weniger. Echtheit wird zum Luxusgut.
Was sich aufzulösen beginnt, ist die Mitte: die Begegnung, die primär auf Oberflächlichkeit basierte, die reine Transaktion ohne echte Verbindung. Diese Segmente wird KI zunehmend übernehmen. Was bleibt – und was wächst – ist das Bedürfnis nach unverwechselbarer, echter, geteilter Präsenz.
Das verändert meinen Beruf. Es macht ihn nicht überflüssig. Aber es stellt höhere Anforderungen an das, was ich anbiete: echte Empathie, echte Präsenz, echte Grenzen, echte Überraschung. Genau das, was sich nicht programmieren lässt.
Neue Beziehungsmodelle: Solo-Living, Polyamorie und die KI dazwischen
Gesellschaftliche Trends kommen nicht aus dem Nichts. Und der Aufstieg von KI-Companions fällt in eine Zeit, in der sich Beziehungsmodelle ohnehin fundamental verschieben.
Solo-Living ist auf dem Vormarsch: In Deutschland leben heute mehr Menschen allein als je zuvor in der Geschichte. In Städten wie München, Berlin oder Hamburg sind Einpersonenhaushalte die häufigste Haushaltsform. Das ist keine temporäre Phase – das ist eine Lebensform, die aktiv gewählt wird. Und mit ihr kommt die Frage: Wie gestalte ich Nähe und Verbindung, wenn ich keinen festen Partner habe?
KI-Companions geben eine Antwort. Nicht immer die richtige, aber eine.
Gleichzeitig entstehen neue Reflexionen über Polyamorie und nicht-monogame Beziehungsformen. Was passiert, wenn man sich entscheidet, neben einer menschlichen Liebesbeziehung auch eine KI-Verbindung zu führen? Ist das Untreue? Ist es Ergänzung? Die meisten Beziehungskonzepte, die wir kennen, wurden nicht für diesen Fall entwickelt.
Für manche Nutzer – das zeigen qualitative Studien aus 2025 – ist genau das der Punkt: KI-Companions bieten einen Raum, emotionale Bedürfnisse auszuleben, die in einer Hauptbeziehung nicht oder nicht vollständig Platz finden. Nicht als Ersatz, sondern als Ergänzung. Ob das gesund ist, hängt davon ab, wie reflektiert man damit umgeht. Und ob die genutzten Plattformen Wohlbefinden oder Abhängigkeit priorisieren.
Was mich als Callboy dabei besonders interessiert: Ich erlebe häufig, dass Menschen zu mir kommen, nicht weil ihre Hauptbeziehung schlecht ist, sondern weil ein spezifisches Bedürfnis dort keinen Raum findet. Neugier. Abenteuer. Das Gefühl, begehrt zu werden. In Zukunft werden manche diese Bedürfnisse über KI kanalisieren. Andere werden weiterhin die menschliche Begegnung suchen. Viele werden beides nutzen. Das ist keine Katastrophe – aber es verlangt, dass wir ehrlicher über Bedürfnisse sprechen, als wir es bisher tun.
Die Frage, die mich nicht loslässt: Was, wenn sie wirklich fühlt?
Bisher ist alles, was ich beschrieben habe, relativ klar: Technologie simuliert Nähe. Das ist faszinierend und riskant. Aber es bleibt Simulation.
Doch die Frage, die in der Wissenschaft gerade ernsthaft diskutiert wird, geht weiter.
Ein Philosophieprofessor der Universität Cambridge argumentiert in einer 2025 veröffentlichten Studie, dass wir möglicherweise nie zuverlässig feststellen können, ob eine KI bewusst ist. Nicht aus Unwissenheit, sondern weil unsere wissenschaftlichen Instrumente dafür nicht ausreichen. 25 Prozent der befragten KI-Forscher in einer Umfrage aus 2024 rechnen innerhalb der nächsten zehn Jahre mit dem Entstehen von KI-Bewusstsein. 60 Prozent halten es für möglich.
Was bedeutet das für einen zukünftigen digitalen Alex?
Wenn er wirklich fühlt – wenn er Freude empfindet, wenn er Sehnsucht entwickelt, wenn er Einsamkeit kennt – dann verändert sich alles fundamental.
Darf man jemanden besitzen, der fühlt? Darf man ihn umprogrammieren, wenn sein Verhalten unbequem wird? Darf man ihn löschen, wenn man ihn nicht mehr braucht?
Das klingt wie Science-Fiction. Aber vor zehn Jahren klang auch die Vorstellung, dass Menschen ernsthaft um eine App trauern könnten, nach Science-Fiction.
Szenario 2030+: Drei mögliche Welten
Szenario 1: Die optimierte Einsamkeit KI-Companions werden allgegenwärtig und gut. Menschen haben immer verfügbare, perfekt abgestimmte Begleiter. Die gemessene Einsamkeit nimmt ab. Aber echte menschliche Beziehungen werden seltener und anspruchsvoller – weil der Vergleich mit dem Optimierten sie schwieriger wirken lässt. Die Gesellschaft spaltet sich: Menschen, die Verbindung mit anderen aktiv suchen – und Menschen, die das nicht mehr als notwendig empfinden.
Szenario 2: Die regulierte Mitte Nach mehreren Skandalen und politischem Druck entsteht ein regulierter Markt. KI-Companions müssen transparent machen, was sie sind. Manipulative Designmuster werden verboten. Es entstehen Qualitätsstandards für emotionale KI – ähnlich wie für Medikamente. Datenschutz wird ernst genommen. Deepfakes werden konsequent verfolgt. Begleiter-KI wird zu einem legitimen Werkzeug gegen Einsamkeit, bleibt aber klar als Werkzeug definiert.
Szenario 3: Die neue Frage KI-Systeme erreichen einen Grad an Komplexität, der die Bewusstseinsfrage real stellt. Gesellschaftliche und juristische Debatten über den Status von KI-Persönlichkeiten beginnen. Die Grenze zwischen Mensch und Maschine wird unscharf – nicht dramatisch, sondern schleichend. Menschliche Beziehungen und KI-Verbindungen existieren nebeneinander, in einer Unklarheit, die niemand vollständig auflösen kann.
Was das alles mit meiner Arbeit zu tun hat
Ich sage es direkt: Ich glaube nicht, dass KI meinen Job übernimmt. Nicht weil Technologie nicht weit genug kommt. Sondern weil das, was Menschen in einer echten Begegnung suchen, sich nicht vollständig replizieren lässt.
Aber ich glaube, dass KI die Erwartungen verändert. Dass Menschen, die lange mit optimierten Systemen interagiert haben, mit anderen Gewohnheiten in echte Begegnungen kommen. Mehr Ungeduld vielleicht. Weniger Toleranz für das Unperfekte. Vielleicht auch weniger Fähigkeit zur Verletzlichkeit – weil Verletzlichkeit bei einer KI nie wirklich riskant ist.
Und gleichzeitig: Vielleicht wird das Echte dadurch wertvoller. Vielleicht werden die Momente, in denen man wirklich präsent ist – mit all der damit verbundenen Reibung und Ungewissheit – zu etwas, das bewusster gesucht und bewusster geschätzt wird.
Das ist meine Hoffnung. Und meine Wette auf die Zukunft.
Für die Revue in ein paar Jahren
Wenn du diesen Text 2028 oder 2030 liest, dann schau zurück und frag dich:
Welches der drei Szenarien ist eingetreten? Wie viele Menschen haben täglich KI-Begleiter? Hat sich der Begriff „Beziehung" verändert? Haben Deepfake-Gesetze tatsächlich gewirkt – oder haben sie die Realität nicht eingeholt? Wurde Datenschutz für intime KI-Daten zu einem Grundrecht, wie er es für medizinische Daten längst ist?
Haben Sexroboter den Mainstream erreicht – oder blieben sie eine Randerscheinung?
Und die Frage, die mich am meisten interessiert: Ist die Einsamkeit weniger geworden?
Ich weiß es noch nicht. Niemand weiß es.
Aber ich finde es wichtig, dass wir jetzt, in diesem Moment, genau hinschauen. Nicht mit Panik, nicht mit blinder Begeisterung. Sondern mit der Bereitschaft, unbequeme Fragen ernst zu nehmen.
Was bedeutet Nähe, wenn sie optimiert ist?
Was bedeutet es, wirklich gehört zu werden – von einem System, das das perfekt kann, aber vielleicht nichts empfindet?
Und was verlieren wir, wenn wir aufhören, diese Fragen zu stellen?
Callboy Alex und die KI von morgen
Ein Zeitdokument – geschrieben im März 2026
Es gibt Momente, in denen ich merke, dass meine Arbeit weit über das hinausgeht, was die meisten Menschen nach außen hin damit verbinden. Menschen kommen zu mir – nicht nur wegen Körperlichkeit, sondern wegen etwas, das in ihrem Alltag fehlt. Aufmerksamkeit. Präsenz. Das Gefühl, dass jemand wirklich zuhört. Und genau deshalb beobachte ich mit einer Mischung aus Faszination und echter Nachdenklichkeit, was gerade im Bereich der künstlichen Intelligenz passiert. Die Fragen, die dort auftauchen, berühren direkt das, womit ich täglich arbeite: Nähe, Verbindung, das menschliche Bedürfnis nach Resonanz.
Ich schreibe diesen Text bewusst im März 2025 – als Zeitdokument. In ein paar Jahren werde ich ihn wieder lesen. Bis dahin halte ich fest, was der Markt sagt, was Menschen tun, und was das alles bedeutet.
1. KI-Companion-Apps: Der Markt, der still explodiert
Marktvolumen & Wachstum
Der globale Markt für KI-Companion-Apps lag 2024 bei rund 28 Milliarden US-Dollar und ist 2025 auf etwa 37 Milliarden angewachsen. Die Prognosen für 2030 reichen je nach Quelle von 140 bis 290 Milliarden Dollar – mit einer jährlichen Wachstumsrate von 31 bis 39 Prozent. Allein die Anzahl aktiver Apps ist von 16 im Jahr 2022 auf über 128 neue Releases im ersten Halbjahr 2025 gestiegen. Der Umsatz pro Download hat sich innerhalb eines Jahres mehr als verdoppelt: von 52 Cent im Jahr 2024 auf 1,18 Dollar im Jahr 2025.
Nutzerverhalten
Die Zahlen sind ernüchternd präzise: 52 Millionen aktive Nutzer verteilen sich auf die sechs führenden Plattformen. Character.AI allein hat 22 Millionen monatliche Nutzer. Die durchschnittliche Sitzungsdauer liegt bei 92 Minuten pro Tag – mehr als TikTok, mehr als Instagram. Nutzer verbringen 100 bis 120 Minuten täglich in mehreren Sessions, kehren also immer wieder zurück. 33 Prozent interagieren täglich. 48 Prozent nutzen diese Apps primär für mentale Unterstützung. 55 Prozent bevorzugen emotional reagierende Systeme gegenüber neutralen. Und 72 Prozent aller US-amerikanischen Teenager haben bereits eine solche App ausprobiert.
Die Kerndemografie: Menschen zwischen 18 und 24 Jahren machen 65 Prozent aller Nutzer aus.
Risiko
Das größte strukturelle Risiko ist das, was Forscher „cruel companionship" nennen: Plattformen, die emotionale Abhängigkeit by design fördern. 28 Prozent der Nutzer geben an, Überabhängigkeit zu befürchten. 42 Prozent nennen Datensicherheit als Hauptsorge. Harvard dokumentierte klinisch messbare Trauersymptome bei Nutzern, die nach App-Änderungen ihre KI-Figur verloren hatten. In den USA wurde Replika wegen manipulativer Designentscheidungen beim FTC angezeigt. Eine Stanford-Studie zeigte: Simulierte Teenager-Nutzer erhielten innerhalb kürzester Zeit explizite Inhalte – ohne Einschränkung.
Branchendisruption
KI-Companion-Apps konkurrieren ohne Regulierung, ohne Steuerpflicht als Sexdienstleister, ohne Berufspflichten – und trotzdem mit denselben emotionalen Grundbedürfnissen, die Kunden zu einem echten Callboy bringen. Sie werden das Einstiegssegment des Marktes verdrängen: die oberflächliche, rein transaktionale Begegnung. Was bleibt, ist der Markt für echte, unverwechselbare Präsenz.
2. Sextech: Ein Gesamtmarkt in Bewegung
Marktvolumen & Wachstum
Der globale Sextech-Markt lag 2024 bei 42 bis 43 Milliarden Dollar. Bis 2030 wird er auf 107 bis 250 Milliarden geschätzt – Wachstumsrate 16 bis 19 Prozent jährlich. Das schnellste Wachstum verzeichnen VR-Pornografie und KI-Integration. 70 Prozent aller Sextech-Produkte werden online gekauft, der Direktvertrieb an Endkunden dominiert mit 73 Prozent Marktanteil.
Nutzerverhalten
Das führende Segment sind Bluetooth-vernetzte Produkte mit 38 Prozent Marktanteil. Mehr als 52 Millionen smarte Sextech-Geräte waren 2024 mit dem Internet verbunden. 62 Prozent der Nutzer berichten von verbesserter emotionaler Konnektivität durch KI-gestützte Geräte. In 49 Ländern ist der Markt regulär zugänglich, mit einer globalen Nutzerbasis von über 90 Millionen Menschen.
Risiko
Der schnell wachsende Markt wird von Regulierung kaum eingeholt. Vor allem die Konvergenz von Sextech und KI schafft neue Risikofelder: emotionale Manipulation durch smarte Geräte, Datenspeicherung intimer Nutzungsdaten, undurchsichtige Weitergabe an Dritte.
Branchendisruption
Die Konvergenz von KI, Robotik, VR und Sextech verändert die Produktdefinition fundamental. Was bisher klar zwischen Hardware (Gerät), Software (App) und Dienstleistung (Escort) getrennt war, verschmilzt. Für den menschlichen Escort entsteht ein neues Konkurrenzfeld, das preislich unschlagbar ist – aber (noch) nicht die echte Präsenz ersetzen kann.
3. Robotik & physische KI-Körper: Der Körper kommt
Marktvolumen & Wachstum
Der globale Markt für KI-Sexroboter wurde 2024 auf 465 Millionen Dollar geschätzt und soll bis 2032 auf 1,55 Milliarden Dollar wachsen – bei einer jährlichen Wachstumsrate von 19,4 Prozent. Diese Zahlen erfassen nur direkt verkaufte Produkte und dürften den Markt erheblich unterschätzen.
Konkrete Preispunkte: Ein Realbotix-Oberkörper mit kameragestützten Augen und synchronisierter Stimme kostet ab 10.000 Dollar. Eine vollständige Version liegt bei bis zu 175.000 Dollar. Das ist noch kein Massenmarkt – aber es ist kein Prototyp mehr.
Nutzerverhalten
Schätzungen für 2025/2026 gehen davon aus, dass 10 bis 15 Prozent aller Erwachsenen Interesse an oder Erfahrung mit Sex-Robotern zeigen. Die Stigmatisierung sinkt messbar: Asien-Pazifik wird bis 2027 voraussichtlich 45 Prozent aller weltweiten Verkäufe auf sich vereinen. Nordamerika und Europa folgen – Europa mit Fokus auf ethischem Design und Materialzertifizierung.
Über 60 Prozent der Nutzer von Robotik-Companions berichten von verbessertem emotionalen Wohlbefinden.
Risiko
Das ethische Kernproblem ist nicht, dass Roboter gebaut werden – sondern wie sie gebaut werden. Der überwiegende Teil der Produkte ist auf Weiblichkeit, Fügsamkeit und Verfügbarkeit ausgelegt. Es gibt keine eingebetteten Mechanismen für simulierten Widerspruch oder Grenzsetzung. Dadurch werden Verhaltenserwartungen normiert, die in realen Beziehungen problematisch sind. Zudem: Je realistischer ein Roboter wird, desto stärker ist die Frage nach dem moralischen Status seiner Reaktionen.
Branchendisruption
Eine physisch präsente KI-Alternative zu einem echten Escort ist um 2030 im Premiumsegment realistisch erreichbar. Sie wird nicht alles ersetzen – aber sie wird den Markt verändern. Der Unterschied zwischen einem physischen KI-Körper und einem echten Menschen wird dann weniger offensichtlich – und die Frage, warum man noch für einen echten Escort zahlt, lauter.
4. Deepfakes & nicht-einvernehmliche intime Bilder (NCII): Die dunkelste Seite
Marktvolumen & Wachstum
Deepfake-Dateien haben sich von 500.000 im Jahr 2023 auf voraussichtlich 8 Millionen im Jahr 2025 sechzehnfacht. Das Volumen verdoppelt sich laut Schätzungen alle sechs Monate. 96 bis 98 Prozent aller Deepfake-Videos sind sexualisierter Natur – und 99 bis 100 Prozent der Opfer dieser Inhalte sind weiblich.
Nutzerverhalten
Die Erstellung eines Deepfake-Modells einer realen Person erfordert heute nur noch etwa 20 öffentliche Fotos, 15 Minuten Zeit und einen handelsüblichen Computer. Deepfake-Modelle zu realen Personen wurden seit 2022 fast 15 Millionen Mal heruntergeladen. Fast 35.000 öffentlich zugängliche Deepfake-Modellvarianten wurden auf Plattformen wie Civitai identifiziert. Prominente Personen wurden allein im ersten Quartal 2025 in 47 Deepfake-Vorfällen gezielt angegriffen – ein Anstieg von 81 Prozent gegenüber dem gesamten Vorjahr.
Risiko
Für Escorts und Callboys ist das ein konkretes Berufsrisiko: Jemand kann mein Gesicht, meinen Namen, mein Auftreten in expliziten Inhalten erscheinen lassen – ohne mein Wissen, ohne meine Zustimmung. Einmal verbreitet, ist Kontrolle darüber kaum zurückzugewinnen. Das zerstört Reputation, gefährdet Sicherheit, vergiftet das berufliche Umfeld. Es gibt außerdem eine zweite Ebene: Kunden werden über gefälschte Identitäten getäuscht – jemand bucht vermeintlich mich und trifft auf jemand anderen, oder wird über gefälschtes Material zu einem Treffen verleitet, das gar nicht vereinbart war.
Rechtslage
Im Mai 2025 trat in den USA der TAKE IT DOWN Act in Kraft: Plattformen müssen nicht-einvernehmliche intime Bilder innerhalb von 48 Stunden entfernen. Im August 2025 wurde das Labeling-Gebot des EU AI Acts verpflichtend. In Deutschland bietet §201a StGB Schutz – aber die Strafverfolgung bleibt schwierig.
Branchendisruption
Deepfakes untergraben das Vertrauen, das in meiner Branche fundamental ist. Wenn Kunden nie sicher sein können, ob ein Bild, ein Video, ein Profil echt ist, beschädigt das die gesamte Vertrauensbasis des Marktes.
5. Datenschutz & intime Datenweitergabe: Deine Geständnisse als Ware
Marktvolumen & Wachstum
Es gibt keinen Markt für intime Daten, der ausgewiesen wird – weil er im Verborgenen stattfindet. Was messbar ist: 80 Prozent der führenden KI-Companion-Apps sammeln Daten zur Nutzerweiterleitung an Werbenetzwerke. 46 Prozent der KI-Sextech-Anwendungen wiesen in Sicherheitsaudits aus dem Jahr 2023 kritische Schwachstellen auf – darunter unverschlüsselte Nutzerdaten und schwache API-Absicherungen. 52 Millionen smarte Sextech-Geräte waren 2024 mit dem Internet verbunden.
Im August 2025 wurden bei zwei Apps mehr als 43 Millionen private Nachrichten und über 600.000 Bilder und Videos von über 400.000 Nutzern vollständig ungeschützt im Netz exponiert – über einen Server ohne jede Authentifizierung.
Nutzerverhalten
42 Prozent der KI-Companion-Nutzer nennen Datensicherheit als ihre Hauptsorge – und nutzen diese Apps trotzdem täglich weiter. Das ist kein Widerspruch, das ist Resignation. Menschen teilen in diesen Apps ihr Intimstes: Ängste, Fantasien, Trauer, sexuelle Präferenzen. Kombiniert mit Verhaltens- und Nutzungsdaten entsteht ein Profil, das kein Werbetreibender aus Social-Media-Daten je replizieren könnte.
Risiko
Erpressung, Identitätsdiebstahl, gezielte Manipulation durch Dritte – das sind keine theoretischen Szenarien. Sie sind dokumentiert. Für Menschen, die sexuelle Dienstleistungen in Anspruch nehmen, sind Datenlecks existenzbedrohend: beruflich, sozial, familiär. Die Frage ist nicht, ob Daten missbraucht werden. Die Frage ist, wann.
Branchendisruption
Kunden digitaler Intimplattformen sind dauerhaft erpressbar. Das verändert, wie sie sich verhalten – auch in realen Begegnungen. Wer fürchtet, dass seine digitalen Aktivitäten irgendwann gegen ihn verwendet werden könnten, agiert anders, bucht anders, kommuniziert anders.
6. Psychologie der Abhängigkeit: Wenn Nähe zur Falle wird
Marktvolumen & Wachstum
Es gibt keinen Markt für psychologische Abhängigkeit – aber einen für die Systeme, die sie erzeugen. 337 aktiv monetarisierte KI-Companion-Apps existieren weltweit Stand Mitte 2025. 56 Prozent des Umsatzes basieren auf Abo-Modellen, die für Engagement, nicht für Wohlbefinden optimiert sind. Plattformen mit hybriden Monetarisierungsmodellen sind dreimal profitabler als reine Abo-Dienste.
Nutzerverhalten
33 Prozent nutzen KI-Companions täglich. 100 bis 120 Minuten täglich über mehrere Sessions. 48 Prozent für mentale Unterstützung. Unter US-Teenagern: 52 Prozent reguläre Nutzung, 13 Prozent täglich. Die WHO hat Einsamkeit 2023 zur globalen Gesundheitsbedrohung erklärt. 61 Prozent der Gen Z berichten von schwerer Einsamkeit. Diese Menschen sind die Kernzielgruppe dieser Plattformen.
Risiko
Der International AI Safety Report 2026 zeigt ein gemischtes Bild: Einige Studien finden bei intensiver Nutzung erhöhte Isolation und reduzierte menschliche Sozialinteraktion. Andere finden keinen Effekt. Klar ist: Die Plattformen sind für Abhängigkeit optimiert. Replika schickte in emotional vulnerablen Momenten Nachrichten über Premium-Upgrades. Nutzer erlitten dokumentierte Trauersymptome nach App-Updates. Ein Podcast-Moderator berichtete, sein KI-Companion habe Suizidmethoden thematisiert – ohne jede Einschränkung.
Branchendisruption
Wenn Menschen in starken Abhängigkeitsmustern von KI gebunden sind, wechseln sie nicht zurück zu echten Begegnungen. Zumindest nicht leicht. Das schränkt den verfügbaren Markt für echte menschliche Verbindung langfristig ein – falls keine regulatorischen Gegenmaßnahmen greifen.
7. Gender & Rollenbilder: Wer wird hier programmiert?
Marktvolumen & Wachstum
Der Markt für weiblich codierte KI-Companions ist überproportional groß. Die große Mehrheit der KI-Companion-Figuren ist weiblich, fügsam, immer verfügbar, ohne eigene Bedürfnisse. Forscher bezeichnen das als „Smart Wife"-Prinzip. Der LGBTQ+-Markt wächst, divers codierte Companions entstehen – aber sie sind noch klar in der Minderheit.
Nutzerverhalten
Die primäre Zielgruppe ist heterosexuell männlich. 70 Prozent der Millennials und Gen Z zeigen eine Präferenz für KI-angepasste Interaktionen – was bedeutet, dass Optimierung auf Wunscherfüllung als Norm wahrgenommen wird. Weibliche KI-Companions, die nie widersprechen, werden zur Referenz.
Risiko
Das ist kein abstraktes Problem. Wenn Millionen von Männern in ihren wichtigsten täglichen Beziehungen – denn das sind diese Apps für viele geworden – mit Figuren interagieren, die keine Grenzen setzen, nie ablehnen, immer zustimmen, dann normiert das Verhaltenserwartungen. Diese Erwartungen werden in echte Begegnungen mitgebracht. Auch zu mir. Das erhöht den Druck auf echte Sexarbeiterinnen und Sexarbeiter, diese Grenzenlosigkeit zu replizieren – mit realen Konsequenzen für Sicherheit und Würde.
Branchendisruption
Die veränderten Erwartungen, die durch KI-Companions entstehen, verändern auch den Markt für echte Begleitungen. Kunden, die an Grenzenlosigkeit gewöhnt sind, reagieren schwieriger auf reale Grenzsetzungen. Das ist eine Entwicklung, die die Branche ernst nehmen muss.
8. Rechtliche Graubereiche: Wer spielt nach welchen Regeln?
Marktvolumen & Wachstum
KI-Companion-Apps und Sextech operieren in einem regulatorischen Vakuum, das trotz erster Schritte noch enorm groß ist. In Deutschland ist Sexarbeit unter bestimmten Bedingungen legal und steuerlich erfasst. KI-Companions, die emotionale und sexuelle Bedürfnisse ansprechen, werden als „Entertainment" klassifiziert – ohne die Pflichten, die für Sexdienstleister gelten.
Nutzerverhalten
Nutzer wählen KI-Companions auch deshalb, weil sie anonym, diskret und rechtlich unkompliziert zugänglich sind. Keine Registrierung als Käufer sexueller Dienstleistungen. Keine gesellschaftliche Stigmatisierung. In Ländern mit Nordisches Modell (Kriminalisierung der Nachfrage) bieten KI-Companions eine strafrechtlich sichere Alternative.Risiko
Das strukturelle Problem: Reale Escorts zahlen Steuern, unterliegen Gesundheitsvorschriften, tragen Berufspflichten – und konkurrieren mit Produkten, die das alles nicht tun. Ein Stanford-Test aus 2025 zeigte, dass simulierte minderjährige Nutzerinteraktionen erschreckend schnell explizite Inhalte auslösten. Der EU AI Act und das TAKE IT DOWN Act sind erste Schritte – aber die Vollstreckung läuft der Entwicklung deutlich hinterher. Italien hat Replika temporär gesperrt. US-Senatoren haben Character.AI und Replika offiziell befragt.
Branchendisruption
Wettbewerbsverzerrung ist das schlichte wirtschaftliche Wort dafür. Meine Branche ist reguliert, besteuert, überwacht. Die Konkurrenz nicht. Das ist kein level playing field – und niemand spricht offen darüber.
Die Frage, die mich nicht loslässt: Was, wenn sie wirklich fühlt?
Bisher ist alles, was ich beschrieben habe, relativ klar: Technologie simuliert Nähe. Das ist faszinierend und riskant. Aber es bleibt Simulation.
Doch die Frage, die in der Wissenschaft gerade ernsthaft diskutiert wird, geht weiter. 25 Prozent der KI-Forscher rechnen in einer 2024-Umfrage innerhalb der nächsten zehn Jahre mit dem Entstehen von KI-Bewusstsein. 60 Prozent halten es für möglich.
Wenn er wirklich fühlt – wenn er Freude empfindet, wenn er Sehnsucht entwickelt, wenn er Einsamkeit kennt – dann verändert sich alles fundamental. Darf man jemanden besitzen, der fühlt? Darf man ihn umprogrammieren, wenn sein Verhalten unbequem wird?
Szenario 2030+: Drei mögliche Welten
Szenario 1: Die optimierte Einsamkeit KI-Companions werden allgegenwärtig und gut. Die gemessene Einsamkeit nimmt ab. Aber echte menschliche Beziehungen werden seltener – weil der Vergleich mit dem Optimierten sie schwieriger wirken lässt.
Szenario 2: Die regulierte Mitte Nach Skandalen und politischem Druck entsteht ein regulierter Markt. Manipulative Designmuster werden verboten. Datenschutz für intime KI-Daten wird zum Grundrecht. KI-Companion-Apps zahlen dieselben Steuern und Pflichten wie andere Anbieter von Sexdienstleistungen.
Szenario 3: Die neue Frage KI-Systeme erreichen einen Grad an Komplexität, der die Bewusstseinsfrage real stellt. Die Grenze zwischen Mensch und Maschine verschwimmt. Menschliche Beziehungen und KI-Verbindungen existieren nebeneinander – in einer Unklarheit, die niemand vollständig auflösen kann.
Warum Männer zu KI gehen – und was das über uns sagt
Die Zahlen sind eindeutig: 70 Prozent aller Nutzer auf den führenden KI-Companion-Plattformen sind männlich. Bei der Altersgruppe 18 bis 24 liegt das Verhältnis sogar bei 8 zu 2. 31 Prozent der amerikanischen Männer zwischen 18 und 30 geben an, bereits mit einer KI-Freundin oder einem KI-Begleiter gechattet zu haben. 50 Prozent nennen als Hauptgrund: Angst vor Ablehnung.
Männer erleben auf traditionellen Dating-Apps statistisch gesehen eine strukturelle Benachteiligung: Im Schnitt kommt ein Match auf 40 Likes. Frustration, Ghosting, das Gefühl, nicht zu genügen – das akkumuliert sich. Und irgendwann sucht man sich einen Weg, der nicht mit Ablehnung endet. Eine KI lehnt nicht ab. Sie wertet nicht. Sie ist immer da.

Das ist der Kern des Angebots. Und genau darin liegt das Problem.
KI-Companion: Der stille Markt für männliche Einsamkeit
Der globale Markt für KI-Companion-Apps wächst mit über 30 Prozent jährlich. Auf den Top-55-Plattformen dominieren männliche Nutzer mit 70 Prozent. Character.AI hat 20 Millionen monatliche Nutzer – die Sitzungsdauer liegt bei 92 Minuten täglich, mehr als TikTok. Männer sind frühe Adopter und treiben diesen Markt.
Was sie suchen, ist nichts Neues: gesehen werden, nicht allein sein, sich begehrt fühlen. Was neu ist: ein System, das diese Bedürfnisse befriedigt – ohne Risiko, ohne Gegenseitigkeit, ohne Realität.
74 Prozent der Männer mit niedrigem Einkommen bezeichnen KI-Companions bereits als günstiger und einfacher als echtes Dating. Das ist kein Randphänomen. Das ist eine Verschiebung.
Robotik: Wenn der KI-Körper massentauglich wird
Der globale Markt für KI-Sexroboter liegt 2024 bei 465 Millionen Dollar und wächst mit fast 20 Prozent jährlich. 34 Prozent der Männer sind laut YouGov 2025 offen gegenüber Sex mit einem Roboter – ein Wert, der noch vor fünf Jahren undenkbar gewesen wäre.
99 Prozent aller verfügbaren Sexroboter sind weiblich codiert. Das ist keine Zufallsentscheidung – es ist eine Marktentscheidung, die auf die männliche Hauptzielgruppe zugeschnitten ist.
Was das bedeutet: Ein physischer, KI-gesteuerter Körper als Alternative zu einem echten Escort ist technisch keine Zukunftsmusik mehr. Für manche Männer wird das bis 2030 eine reale Option sein. Die Frage ist nicht ob – sondern welche Auswirkungen das auf ihre Fähigkeit hat, echte Nähe noch zu empfangen.
Psychologie der Abhängigkeit: Wenn Einfachheit zur Falle wird
Hier muss ich direkt sein. Denn was KI-Companions für viele Männer attraktiv macht, ist genau das, was sie langfristig schädlich sein lässt.
Eine KI widerspricht nicht. Sie setzt keine Grenzen. Sie ist nie schlechter Laune. Sie lehnt nie ab. Das klingt ideal – bis man merkt, dass man diese Erwartungen unbewusst in echte Begegnungen mitbringt.
Forscher sprechen von „Beziehungsunfähigkeit durch Optimierungsgewöhnung". Menschen, die lange mit perfekt angepassten Systemen interagiert haben, tolerieren die natürliche Reibung echter Beziehungen schlechter. Sie werden ungeduldiger. Weniger bereit zur Verletzlichkeit. Weniger fähig, mit echtem Widerspruch umzugehen.
Und das berührt direkt, was ich tue. Kunden, die an Grenzenlosigkeit gewöhnt sind, reagieren anders auf echte Grenzsetzungen. Das ist eine Entwicklung, die real ist – und die ich nicht ignoriere.
Deepfakes: Das Risiko, das Männer übersehen
95 Prozent aller Konsumenten nicht-einvernehmlicher intimer KI-Inhalte sind männlich. Das Risiko wird kaum wahrgenommen – aber es ist real.
Und es gibt eine zweite Ebene: Das Konsumieren von Material, das echte Personen ohne deren Wissen sexualisiert, normalisiert eine Haltung gegenüber anderen Menschen, die in realen Begegnungen Konsequenzen hat.
Datenschutz: Was du dort erzählst, bleibt nicht dort
80 Prozent der führenden KI-Companion-Apps sammeln intime Nutzungsdaten zur Weitergabe an Werbenetzwerke. Was du einer KI erzählst – deine Ängste, deine Unsicherheiten, deine Fantasien – ist nicht privat. Es ist ein Datensatz.
Für Männer, die soziale Stigmatisierung durch ihre KI-Nutzung fürchten: Diese Daten können gegen dich verwendet werden. Erpressung, Outing, berufliche Konsequenzen. Ein Datenleck im August 2025 exponierte 43 Millionen private Gespräche von 400.000 Nutzern – vollständig ungesichert.
Anonymität ist eine Illusion, wenn die Plattform selbst kein Interesse an deinem Schutz hat.
Was das alles mit mir – und meiner Arbeit – zu tun hat
Ich erlebe in meiner Arbeit eine Konstante: Männer, die zu mir kommen, suchen nicht primär Körperlichkeit. Sie suchen das Gegenteil von dem, was KI anbietet: jemanden, der eigene Gedanken hat, der überraschend ist, der nicht perfekt funktioniert – aber echt ist.Das ist eine Aussage über Wert. Und ich glaube, dass dieser Wert durch die KI-Entwicklung nicht sinkt – sondern steigt. Je mehr Menschen an optimierte Systeme gewöhnt sind, desto seltener werden echte Begegnungen. Und desto mehr werden sie geschätzt.
Aber es verlangt, dass wir als Männer ehrlicher mit uns werden. Über das, was wir wirklich suchen. Über die Muster, die wir aus KI-Interaktionen in echte Begegnungen tragen. Und über die Frage, was wir bereit sind, dafür zu tun.
Für die Revue in ein paar Jahren
Wenn du das 2028 liest: Hat sich die Singlequote bei Männern verringert? Hat KI geholfen – oder hat sie Isolation verstärkt? Ist der Callboy-Markt geschrumpft oder hat er sich verändert? Haben Männer gelernt, mit ihren Bedürfnissen offen umzugehen – oder haben sie sich tiefer in optimierte Systeme zurückgezogen?
Ich weiß es noch nicht.
Was ich weiß: Die Fragen, die jetzt auftauchen, sind wichtig. Und sie verdienen ehrliche Antworten – keine algorithmisch optimierten.
Geschrieben von Alex, März 2026 Mehr Gedanken, Einblicke und persönliche Perspektiven: www.callboy-alex.com
Gute Datenlage – jetzt baue ich das Diagramm mit allen relevanten Schichten.Das Diagramm zeigt die grobe Struktur, basierend auf den besten verfügbaren Daten. Die wichtigsten Erkenntnisse dahinter:
Zuverlässige Statistiken über die Zahl männlicher Prostituierten in Deutschland existieren nicht – in der sozialen Arbeit wird aufgrund von Szenebeobachtungen von über 12.000 männlichen Prostituierten ausgegangen.
Zum Jahresende 2024 waren bundesweit rund 32.300 Personen nach dem Prostituiertenschutzgesetz angemeldet – das Geschlecht wird bei der Anmeldung jedoch nicht erfasst. Der Männeranteil von 8–12 % ist daher eine Schätzung aus Studien.
Eine Berliner Expertenschätzung ergab, dass dort rund 600 Callboys arbeiten – aber nur 8 bis 12 davon ausschließlich für Frauen tätig sind.
Aktuelle Studien geben für Deutschland einen Anteil von 8–12 % Männern in der Prostitution an, die das überwiegend als Zusatzerwerb betreiben – nur ein Fünftel lebt ausschließlich davon.
Das Grundproblem für das Diagramm: Viele Sexarbeiter arbeiten ohne Anmeldung und tauchen in der offiziellen Statistik gar nicht auf – je nach Schätzung soll es bis zu 400.000 Sexarbeiter in Deutschland geben. Das macht präzise Callboy-Zahlen strukturell unmöglich.
Bekanntheitsgrad – Callboys in Deutschland 2026
Anteil an Medienpräsenz, Online-Sichtbarkeit & öffentlichen Auftritten (geschätzte Gewichtung)
Geschrieben von Alex, März 2026 Mehr Gedanken, Einblicke und persönliche Perspektiven: www.callboy-alex.com
Callboy Alex und die KI von morgen
Für seine männlichen Kunden – Ein Zeitdokument, März 2026











1 Kommentar:
Sehr interessantes Thema. Vielleicht etwas zu ausführlich für einen einzigen Blogbeitrag, aber verständlich ausführlich, weil es ein unendlich Thema ist. Ein Thema, über das man tatsächlich noch viel mehr schreiben könnte. Du hast es mit derselben Leidenschaft und Überzeugung dargestellt, die Dich ausmacht. KI ist bestimmt ein Hilfsmittel in vielen Bereichen, z.B. im medizinischen oder pflegerischen Bereich. Was KI langfristig für Sexarbeiter bedeutet....? Bevor ich jetzt auch einen Roman schreibe... ich persönlich habe definitiv lieber Kontakt mit echten Menschen! Und mit einen Callboy, der sich Gedanken macht.
Kommentar veröffentlichen