Mit Legal Tech gegen Diskriminierung vorgehen

"Ein Bot kann keinen Men­schen ersetzen, aber ­Pro­b­le­me ­sichtbar machen"

von Dr. Franziska KringLesedauer: 6 Minuten

Volljurist Said Haider hat "Meta" gegründet, einen Chatbot gegen Diskriminierung. Im Interview erzählt er, wie ihn seine Tätigkeit beim YouTube-Format Datteltäter inspiriert hat und wie er den Bot weiterentwickeln will. 

LTO: Herr Haider, nach Ihrem zweiten Staatsexamen im Jahr 2014 haben Sie zunächst als Jurist und Projektmanager in verschiedenen Organisationen gearbeitet, sich also bewusst gegen eine "klassische" Juristenkarriere entschieden. Wie kam das? 

Said Haider: Schon während des Referendariats habe ich mich in keiner der Stationen wohlgefühlt. Das war nicht die Art von moderner Arbeit, in der ich mein Potenzial voll ausschöpfen kann. Für mich waren die Strukturen, Denkweisen und Arbeitsmethoden veraltet.  

Das muss nicht heißen, dass sie nicht effektiv und gut sind – aber für mich persönlich waren sie nicht innovativ. Ich habe mich nicht gegen das Juristische entschieden, sondern für das Innovative. Das habe ich in meiner "Findungsphase" nach dem zweiten Staatsexamen herausgefunden. 

Was haben Sie in Ihrer Findungsphase gemacht? 

Nach dem Examen habe ich mich mit meinem besten Freund, der auch Jurist ist, zusammengesetzt und ihm eröffnet, dass ich noch nicht den richtigen Beruf für mich gefunden habe. 

Mein Freund schlug vor, ich solle mir ein Jahr Zeit nehmen, um verschiedene Berufe auszuprobieren. Das habe ich gemacht – und das Jahr maßlos überzogen. Zunächst war ich Projektmanager und Legal Counsel bei unterschiedlichen sozialen Einrichtungen und Verbänden. Nachhaltig geprägt hat mich aber die Zeit bei den "Datteltätern", einem YouTube-Kanal, der mit Humor Vorurteile gegenüber Muslimen ausräumen will.  

Anzeige

"Mein juristisches Strukturverständnis ergänzte die kreativen Künstler gut" 

Welche Rolle hatten Sie bei den Datteltätern? 

Anfangs haben wir vieles ausprobiert: Zuerst war ich vor der Kamera, dann dahinter. Außerdem habe ich Skripte geschrieben. 

Am besten lag mir allerdings das Organisatorische: Als Jurist habe ich ein gutes Strukturverständnis, das ergänzte dieGruppe von kreativen Künstlerinnen und Künstlern gut. Ich habe viele Prozesse identifiziert und Strukturen gelegt – also klassische Aufgaben eines COO übernommen. 

Ich war gut darin, Fördermittel einzuwerben. Das hört sich nach einer klassischen juristischen Aufgabe an, allerdings braucht man auch gute Menschenkenntnisse, man muss netzwerken können – und ein Gespür für Innovation haben. 

Wie kamen Sie auf die Idee, den "Antidiskriminierungs-Chatbot" Meta zu entwickeln? 

Während meiner Zeit bei den Datteltätern haben wir in unseren Videos auch das Thema Diskriminierung aufgegriffen. Wir haben unsere Fan-Community aufgefordert, uns Erfahrungen aus ihrem Leben zu schildern, aus denen wir satirische Videos entwickeln konnten. 

Die Anzahl der Einsendungen, die wir erhalten haben, war überwältigend. Das hat mir zu denken gegeben. Mir war bewusst, dass Rassismus und Diskriminierung ein Problem sind, aber so habe ich ungewollt einen Überblick über die Zahlen bekommen. Jeder hatte eine Geschichte; jeder wollte, dass daraus ein Video gemacht wird. 

Ich habe mich gefragt, ob diese Menschen ihre Rechte kennen und im Internet eine Homepage mit Informationen gesucht, die ich an sie weiterleiten konnte. Diese eine Website gab es jedoch nicht: Ich bin zwar auf einige Hotlines und Beratungsstellen gestoßen – das hätte aber nichts gebracht, um die Betroffenen schnell über ihre Rechte und Handlungsmöglichkeiten aufzuklären. 

Das war der Moment, in dem ich die Idee hatte, den Antidiskriminierungs-Chatbot zu entwickeln. 

"Nach einem Hackathon wusste ich, dass ein Chatbot ein Mittel gegen Diskriminierung sein kann" 

Wie ging es dann los mit dem Chatbot? So einen Chatbot entwickelt man ja nicht mal eben so in zwei Wochen. Wie sind Sie vorgegangen? 

Am Anfang war es eine fixe Idee. Ich habe ein Konzept geschrieben und bin davon ausgegangen, dass es keinen interessiert. Dem war aber nicht so: Ich habe es bei der Akademie für Islam in Wissenschaft und Gesellschaft der Goethe-Universität Frankfurt eingereicht – und hatte Erfolg. 

Im Sommer 2019 habe ich einen Hackathon ausgerichtet, bei dem ich IT-Expertinnen und Experten mit solchen aus dem Bereich Antidiskriminierung zusammengeführt habe. Danach wusste ich, dass ein Chatbot ein probates Mittel gegen Diskriminierung sein und einen Unterschied machen kann. 

Erst seit Beginn dieses Jahres kümmere mich in Vollzeit um den Chatbot. Derzeit bin ich auf dem besten Weg, Fördermittel für zwei Jahre zu erhalten, und schreibe gerade Jobs aus. 

Im Februar dieses Jahres haben Sie einen Prototyp gelauncht, der "Meta" heißt. Welche Erfahrungen haben Sie damit gemacht? 

Um potenziellen Förderern und Stiftungen das Ziel des Projektes nahezubringen, habe ich einen Testballon entwickelt – und war überrascht von der Resonanz. Wir hatten zum ersten Mal ein Produkt auf dem Markt, das andere Leute testen können.  

Unser Ziel war es, zum Ende des Jahres 300 Test-User zu haben: Die 1.000er-Marke war jedoch bereits im Juni überschritten. Der Beratungsbedarf ist also da. 

Wir werden Meta allerdings umbenennen, weil der Name jetzt von Facebook besetzt ist – bei Google werden wir so nicht mehr gefunden. 

"Der Chatbot ist ständig verfügbar – und bietet den Schutz der Anonymität" 

Wie funktioniert der Bot? 

Der Bot leitet die Betroffenen durch verschiedene Fragen, die sie beantworten müssen, um ihren Fall zu schildern. Dabei können sie anfangs wählen, ob sie einen Vorfall melden, eine allgemeine Beratungsstelle finden oder Rechtsberatung wünschen. Anhand der Antworten zeigt der Bot Handlungsmöglichkeiten auf. Die meisten Betroffenen schildern Fälle von Diskriminierung aufgrund der ethnischen Herkunft oder der religiösen Zugehörigkeit. 

Im Moment ist der Chatbot noch ein klassischer Entscheidungsbaum, der aus automatisierten Antworten auswählt. In einem nächsten Schritt möchten wir ihn weiterentwickeln und mithilfe von Künstlicher Intelligenz (KI) nach und nach den Entscheidungsbaum hinter uns lassen, bis der Bot irgendwann “richtige” Gespräche führen kann. 

Wie kann ein Chatbot gegen Diskriminierung helfen? 

Der Vorteil des Bots ist einerseits, dass er ständig verfügbar ist, 24 Stunden am Tag, sieben Tage in der Woche. Man muss nicht auf einen Termin warten oder in der Warteschleife hängen. 

Andererseits bietet er den Schutz der Anonymität: Die Betroffenen müssen zunächst keine Beratungsstelle aufsuchen oder persönliche Details preisgeben. Sie sind an ihrem Handy oder PC und können den Bot in einem geschützten Raum benutzen. 

Der Bot soll Betroffene über ihre Rechte und Handlungsmöglichkeiten aufkläre, aber kann und soll keinen Menschen ersetzen. Unser Ziel ist es, den Menschen beispielsweise aufzuzeigen, welche Vorschrift des Allgemeinen Gleichbehandlungsgesetzes Diskriminierung im Geschäftsverkehr verbietet – und wie man sich dagegen wehren kann. 

Wir informieren die Betroffenen, wie sie ihre Ansprüche geltend machen können und welche Fristen sie beachten müssen. Selbst in Fällen, in denen die Frist wahrscheinlich schon abgelaufen ist, möchten wir die User dazu motivieren, ihren Fall überprüfen zu lassen. Wenn der Anspruch tatsächlich verfristet ist, können sie den Vorfall immer noch bei uns melden. Ein grundsätzliches Problem ist es, dass nur die wenigsten Fälle bekannt werden – das wollen wir ändern und Diskriminierung sichtbar machen. 

"Erster spannender Anwendungsfall eines Legal Bots" 

Was passiert, wenn ein Vorfall gemeldet wird? 

Wir speichern die Vorfälle und werten sie aus. Unsere Vision ist es, jährliche Berichte zu veröffentlichen und an Juristinnen und Juristen weiterzugeben. Dieses Jahr werden wir allerdings noch nicht starten. Langfristig streben wir an, Berichte für die Anwaltschaft herauszugeben, um strategische Prozessführung anzuregen. 

Wie soll es mit Meta weitergehen, welche nächsten Schritte sind geplant? 

Wir haben bereits eine Struktur geschaffen und Fördermittel eingeworben. Jetzt müssen wir ein technisches Produkt entwickeln. 

Wir müssen die juristische Wissensdatenbank, die hinter Meta steht, aufstocken. Wir möchten die zehn häufigsten Fälle, in denen Betroffene diskriminiert werden, erfassen. Bereits jetzt arbeiten wir mit Anwältinnen und Anwälten zusammen, die uns unterstützen, diese Fälle einzuspeisen und die Bibliothek des Bots zu erweitern. 

Wir möchten erreichen, dass das Anti-Diskriminierungsrecht der erste spannende Anwendungsfall für einen Legal Bot ist. Andere soziale Projekte, etwa HateAid, konzentrieren sich stark auf Apps als Produkt. Im nächsten Jahr möchten wir einen Bot präsentieren, der auf KI basiert und bei dem Betroffene selbst die Vorfälle schildern können. Der Bot soll daraus lesen können, um was für einen Fall es geht. 

Können Sie sich Legal Bots auch in anderen Bereichen vorstellen? 

Ich hoffe, dass Meta erst der Anfang von Legal Bots ist. Vorstellen könnte ich mir Bots im Sozialrecht, beispielsweisewenn es um den Kindergeldzuschlag geht. Personen, die ALG II beziehen, können einen solchen erhalten. Die Anonymität des Bots macht es leichter, Stigmatisierungen zu umgehen und die eigenen sozialrechtlichen Ansprüche überprüfen zu lassen. Ein weiterer Anwendungsfall könnte häusliche Gewalt sein. Legal Bots könnten in vielen Bereichen hilfreich sein. 

Vielen Dank für das Gespräch! 

Said Haider ist Volljurist und Gründer und CEO von Meta – Der Antidiskriminierungs-Chatbot. 

Auf Jobsuche? Besuche jetzt den Stellenmarkt von LTO-Karriere.

Thema:

Diskriminierung

Verwandte Themen:
  • Diskriminierung
  • Soziale Medien
  • Beruf
  • Legal Tech

Teilen

Ähnliche Artikel

Newsletter