
… Whenever I write a column or an article in a magazine about law, I see a robot dressed as a lawyer. But this idea that the future of legal service is a robotic lawyer, I think is as simplistic as the idea that the future of surgery is a robotic surgery. Because people thinking this way are falling into the fundamental trap that many economists are falling into, into, and many management consultants are falling into. They’re thinking that the way you look at future legal jobs is looking at jobs, break down the jobs into tasks, and ask the question, where can we pull out a human plug-in machine? Pull out a human plug-in machine. And if there’s many places you can pull out a human plug-in machine, your job is under threat. But in the very few places, your job’s OK for a while yet. But all of this is thinking like robotic surgery. It’s thinking the future of AI law is simply automation. It’s simply computerizing and systematizing what we already do. I think that is fundamentally wrong. What we need to think of in law is the equivalent of non-invasive therapy. How do we give our clients the outcomes they want in ways that are cheaper, quicker, less painful, less intrusive, and more than that, And this is echoed in all my research in the House Council.
We need to think about preventative law. Non-lawyers, say the chief executive of a major company, would offer the option between a very big dispute well resolved by a traditional team of lawyers and not having the dispute at all. They don’t want to have the dispute at all. They want, as I often say, the fence at the top of the cliff rather than the ambulance at the bottom. So this is the future of AI law. Of course, to make more efficient and productive what we do over the next few years. But the challenge is legal innovation, enabling us to get that hold of the law in new ways, improve cheaper, more convenient service for clients.
And the challenge also is not about dispute resolution. It’s dispute avoidance. But finally, I thought that day when asked me to answer the question, what is the future of neurosurgeons, they were asking me the wrong question. The question should have been, how in the future will we solve the problems to which neurosurgeons are our current best answer? And similarly, the question, what is the future of lawyers, is the wrong question. The question we should be asking is, how in the future will organizations and individuals solve the problems to which lawyers are their current best answer?
And my answer to that question, ladies and gentlemen, is artificial intelligence.
Wer spricht – und warum es zählt
Richard Susskind ist Präsident der Society for Computers and Law, seit 2024 Special Envoy for Justice & AI des Commonwealth; 1998–2023 Technologieberater der Lord/Lady Chief Justice; 2025 zum CBE ernannt.
Werk und Entwicklung – die Schneise
- The Future of Law (1996): IT verändert Praxis und Justizverwaltung fundamental. Früh, klar, konkret.
- The End of Lawyers? (2008, rev. pbk.): Standardisierung, Systematisierung, „Packaging“ – Rollenwandel der Profession.
- Tomorrow’s Lawyers (3. Aufl. 2023): Roadmap der 2020er – Online Courts, globale AI-Legal Businesses, neue Berufsbilder.
- Online Courts and the Future of Justice (2019/2021 pb.): Digitale Gerichte als Hebel für Zugang zum Recht.
- How To Think About AI (2025): Kompaktes Denkgerüst, Szenarien statt Mythen.
Konstante Linie über 30 Jahre: Von Effizienz zu Substitution durch Systeme; von Beratung zu Produkt.
Die heutige Rede am 17. September 2025 in seiner Keynote zur “Legal Revolution” schärft seine Linie.

Susskinds Keynote hat mich beeindruckt und bestätigt aus anderem Blickwinkel meine bisherigen Gedanken und Forschung.
Kurzfristig überschätzt. Langfristig unterschätzt. Warum der Rechtsmarkt jetzt zum Produkt wird.
Die Diagnose ist unbequem und richtig: KI wird den Rechtsmarkt nicht morgen umkrempeln, aber übermorgen. Heute sehen wir Demos und Pilotprojekte. Morgen sehen wir Produkte, Plattformen, eingebettete Compliance. Und genau das war die Botschaft der heutigen Rede von Richard Susskind – gerahmt von vier Jahrzehnten Arbeit an der Schnittstelle von Recht, Technologie und Justizpolitik.
Die Rede anlässlich der Legal Revolution, entkernt – und eingeordnet
Susskind ordnet KI in sechs Hypothesen: vom Hype (Doppelbetrieb Mensch/Maschine scheitert) bis zur AI-Evolution (Systeme, die uns ablösen). Dazwischen: Gen-AI-Plus (heutige Modelle werden industrietauglich), AGI (menschenniveaufähig), Superintelligenz (Fähigkeitsexplosion), Singularität (Verschmelzung). Wichtig ist nicht die Prophetie, sondern die Planungsprämisse: Für das Recht zählt auf Sicht der nächsten zehn Jahre vor allem Gen-AI-Plus als Brücke zur Zuverlässigkeit – und AGI als Szenario, für das man jetzt Spielregeln und Strukturen vorbereitet. Dieses Raster ist kein Bühnen-Gag, sondern das methodische Herz seines aktuellen OUP-Buchs.
Kernthese, die durchzieht: Fortschritt ? Adoption. Technik skaliert exponentiell, Einführung verläuft zackig, holprig, kultur- und regulierungsgebremst. Deshalb reden wir kurzfristig über Automatisierung „für Anwälte“ – und langfristig über Produktisierung „für Mandanten“: Recht als System, Service, Software. Diese Verschiebung hat Susskind seit Jahren vorbereitet.
Vom Buch ins System: „Online Courts“ als Real-Labor
Wer Fakten will, findet sie dort, wo Susskind Politik mit Praxis verknüpft: 2015 empfiehlt die Civil Justice Council ODR Advisory Group ein Online-Streitbeilegungssystem für geringwertige Zivilsachen – Susskind als Vorsitzender. Das Dokument ist kein Blogpost, sondern Justizpolitik.
In Kanada zeigt das Civil Resolution Tribunal (BC), wie es funktioniert: asynchron geführte Verfahren, „Solution Explorer“, Entscheidungen mit Vollstreckungskraft. Ein offizieller Baustein der öffentlichen Justiz. Nicht futuristisch, sondern fern jeder Folienromantik.
2020, als die Welt dicht macht, startet Remote Courts Worldwide – ein globales Wissenshub, um Remote-Verfahren zu vergleichen und zu verbessern. Das ist Susskinds Stil: kein Alarmismus, sondern Infrastruktur. Remote Courts Worldwide+1
Natürlich gibt es Gegenwind – und den muss man ernst nehmen: Evaluierungen in UK zeigen Gewinne an Zugänglichkeit, aber auch Fairness-Risiken für vulnerable Gruppen in Remote-Settings. Lehre: Remote- und Online-Verfahren brauchen Standards, Eignungsprüfungen, Assistenz und Datenbasis – sonst frisst Effizienz die Verfahrensgerechtigkeit. Das spricht für kluge Gestaltung, nicht gegen die Digitalisierung.
Kurzfristig überschätzt – langfristig unterschätzt
Die 2020er bringen keinen Roboterjuristen. Sie bringen etwas Nüchterneres – und Wirksameres: AI for Lawyers heute, AI for Clients morgen. Erst Dokumentprüfung, Recherche, Drafting-Assistenz. Dann Produkte: eingebettete Compliance, Self-Service-Guidance, Streitvermeidung by Design. Das ist die Linie, die sich von The Future of Law über The End of Lawyers? bis Tomorrow’s Lawyers zieht – und die Rede verdichtet.
Drei Denkfehler, drei Korrekturen
Not-us-Denken („überall, nur nicht bei uns“). Technologische Kurzsichtigkeit (heutige Schwächen = morgige Grenzen). Irrationaler Rejektionismus (laut ablehnen ohne Erfahrung). Die Gegenmittel sind bekannt – und dokumentiert: belastbare Evidenz, produktive Regulatorik, und eine Berufsöffentlichkeit, die Access-to-Justice als Leitstern nimmt (vgl. ABA Future of Legal Services Report, 2016). Übersetzt heißt das: Messen, lernen, skalieren – statt zaudern.
Was heißt das jetzt – operativ?
Denke lang, handle kurz. Nutze Susskinds Hypothesen als Langfrist-Raster. Triff heute Produkt- und Governance-Entscheidungen, die in beiden Welten funktionieren: Gen-AI-Plus und strengere Zukunftsszenarien.
Bau Produkte, nicht nur Projekte. Jede wiederkehrende Leistung wird Kandidat für Produktisierung. Von der Standardklausel bis zum Compliance-Check. OUPs Tomorrow’s Lawyers ist hier keine Predigt, sondern Handbuch.
Löse die „Adoption“-Gleichung. Rechtliche, ökonomische, kulturelle Hürden sind keine Nebensache, sie sind die Sache. Was hilft: Pilot mit echter Metrik (Durchlaufzeit, Fehlerquote, Kosteneffekt), klare Haftung & Aufsicht, Daten-Hygiene, Protokolle und Audits. Das HMCTS-Programm zeigt: Evaluieren, anpassen, verstetigen.
Schütze Fairness als Feature. Remote-/Online-Verfahren nur mit Eignungsprüfung, Assistenz für Vulnerable, Barrierefreiheit, dokumentierten Abweichungsregeln und „Right to Human Review“. So schließt man die von EHRC und Justizberichten benannten Lücken.
Karrieren neu denken. Nicht gegen Systeme antreten, Systeme bauen: Legal-Knowledge-Engineering, Produkt-Management, Daten & Evaluation. Das ist die Profession der 2030er, die Susskind seit Jahren ankündigt – und die seine heutige Rede zwingend macht.
Schluss mit Beschwichtigung. Her mit Produkten, Prävention, Messbarkeit. Die kurze Sicht überschätzt Effekte und unterschätzt Risiken. Die lange Sicht unterschätzt Effekte und überschätzt Risiken. Wer Susskinds Landkarte ernst nimmt und sie mit belastbarer Umsetzung füllt, wird den Rechtsmarkt nicht nur digitalisieren, sondern neu konfigurieren – zugunsten der Mandanten, der Justiz und letztlich des Rechtsstaats.
Kernfrage und Antwort
Nicht: „Was ist die Zukunft der Anwälte?“
Sondern: „Wie lösen wir künftig die Probleme, für die Anwälte heute die beste Antwort sind?“
Antwort der Rede: Künstliche Intelligenz – verantwortungsvoll gebaut, klug eingeführt, mandantenorientiert genutzt.
Susskind trifft Schließmann: Landkarte und Cockpit für die KI-Strategie
Richards Susskinds Rede ist ein starkes Stück Zukunftspolitik: sechs Hypothesen von „Hype“ bis „Evolution“, eine klare Trennung von technischem Fortschritt und realer Adoption, dazu die Forderung, Recht nicht nur effizienter, sondern grundlegend anders zu denken. Das passt erstaunlich gut zu Prof. Christoph Ph. Schließmanns Arbeit auf StrategieAI – mit einem entscheidenden Unterschied: Susskind liefert die Landkarte, Schließmann das Cockpit. Der eine skizziert Möglichkeitsräume, der andere liefert Messinstrumente für Komplexität, Risiken und Steuerung. Zusammen ergibt das eine belastbare Navigationslogik für Kanzleien, Rechtsabteilungen und Führungsteams.
Susskind zuerst. Er ist Präsident der Society for Computers and Law, langjähriger Technologieberater des Lord Chief Justice und 2025 mit How To Think About AI erneut auf den Punkt: KI muss man denken lernen – jenseits Technikfetisch und Endzeitmythen. Seine Raster helfen, den Lärm zu sortieren: Gen-AI-Plus als verlässliche, industrietaugliche nächste Stufe; AGI als Planungsprämisse, nicht als Heilsgewissheit; Superintelligenz als mögliches Folgeszenario. Dahinter steht stets derselbe Imperativ: Fortschritt ? Nutzung. Zwischen Labor und Gerichtssaal liegt ein Tal aus Regulierung, Ökonomie und Kultur, das aktiv überbrückt werden will.
Schließmann setzt genau dort an, wo Organisationen oft ins Straucheln geraten: in der Steuerbarkeit. Sein Ansatz „Artificial Intuition“ verbindet die datengetriebene Artificial Intuition von Ontonix – also die Vermessung von Komplexität, Interdependenzen und Systemrisiken – mit seiner Strategic Intuition als erfahrungsbasierter, regelgeleiteter Urteilsfähigkeit. Der Schließmann-Strategie-Würfel macht das handfest: vier Dimensionen (Führung, Struktur, Kommunikation, Leistung), deren Dysbalancen sich quantifizieren und visualisieren lassen. Aus Big Picture wird belastbare Diagnose, aus Bauchgefühl wird kontrollierte Intuition.
Beide Schulen treffen sich im Kern: Wert statt Werk. Susskind argumentiert seit Jahren, dass Recht sich vom beratungszentrierten Projekt zur produktisierten Leistung wandelt – Self-Service, eingebettete Compliance, Online-Gerichte. Schließmann übersetzt das in Steuerungslogik: Nicht Branche zählt, sondern der StrategischRelevanteMarkt als Wettbewerbsraum um originäre Kundenbedürfnisse. Nicht Features zählen, sondern Viabilität – die strukturelle Überlebensfähigkeit eines Systems unter Komplexität. Das eine liefert den Marktimpuls („billiger, schneller, besser“), das andere das Organisations-Thermometer (Komplexität runter, Resilienz rauf, Performance hoch). Ergebnis: Prävention vor Reaktion. Zaun oben am Klippenrand statt Krankenwagen unten im Tal.
Auch bei den Hürden sind beide erstaunlich deckungsgleich. Susskind benennt drei Denkfehler: „Not-us-Denken“, technologische Kurzsichtigkeit, irrationaler Rejektionismus. Schließmanns Würfel kontert genau diese Fallen mit Governance, Ethik, Stakeholder-Kommunikation – also mit jenen weichen Faktoren, die in der Praxis die harten Adoptionserfolge bringen. Die Botschaft ist identisch: Kultur frisst KI zum Frühstück – es sei denn, man macht Kultur führbar.
Wo ergänzt Schließmann Susskind? Erstens: Messbarkeit. Susskinds Szenarien schärfen den Blick, Schließmann liefert Metriken. Ontonix-Analysen quantifizieren Systemkomplexität, offenbaren Kaskadeneffekte und zeigen, wo eine KI-Einführung die Organisation destabilisieren würde – bevor es passiert. Zweitens: Entscheidungsrhythmus. Strategische Intuition ist keine Bauchentscheidung, sondern ein trainiertes Heuristik-System, das unter Unsicherheit schnell und konsistent reagiert – passend zu Susskinds Forderung, nicht auf Perfektion zu warten, sondern verantwortungsvoll zu skalieren. Drittens: Instrumentierung. Das StrategieAI-Tool verbindet Diagnose, Steuerungsgrößen und Interventionsoptionen zu einem durchgängigen Handlungsrahmen. So wird aus „Wir sollten“ ein „Wir regeln“.
Und wo schärft Susskind Schließmann? Er bringt die Zeithorizonte. Gen-AI-Plus bis 2030 als realistische Schwelle industrieller Zuverlässigkeit, AGI als plausibler 2030er-Schock. Wer mit Schließmann heute Komplexität misst, kann Susskinds Horizonte als Planungsschichten darüberlegen: Tagesgeschäft stabilisieren, zugleich Fähigkeiten für Sprunginnovationen aufbauen. Nichts ist gefährlicher als eine Organisation, die den laufenden Betrieb optimiert und die nächste Welle verpasst.
Was heißt das konkret für Recht und Unternehmen? Erst die Diagnose. Kein KI-Programm ohne Blick in den Würfel: Stimmt die Führungslogik, sind Rollen, Haftung, Budgets, Ethik geklärt? Hält die Struktur – Datenqualität, Prozesse, Lieferketten? Trägt die Kommunikation – Mandant, Markt, Kultur? Liefert die Leistung – messbarer Nutzen, nicht nur schöne Demos? Wer hier rote Zonen sieht, startet mit Kultur-, Daten- und Governance-Sanierung, nicht mit Piloten um der Piloten willen. Dann die Produktspur: Susskinds „AI für Mandanten“ wird zur Produktlinie, die in die Systemarchitektur der Organisation eingebettet ist – Compliance als Service, Verträge als Workflows, Streitvermeidung als Standard. Schließlich das Taktische: Intuition plus Daten. Führung steuert über wenige, robuste Kennzahlen, nicht über Dashboards voller Kosmetik. Drei Fragen genügen: Senken wir Komplexität? Steigern wir Resilienz? Erhöhen wir den Netto-Nutzen pro Fall?
So entsteht ein Gesamtentwurf, der mehr ist als Technik-Roadmap: Susskind liefert die Gründe, Schließmann die Griffe. Erstens: Denke lange, handle kurz. Szenarien im Kopf, nächste Iteration im Griff. Zweitens: Baue Systeme, statt gegen Systeme zu kämpfen. Wer heute noch mit Stoppuhren Effizienz nachweist, morgen aber keine Metriken für Komplexität hat, verliert. Drittens: Führe mit Haltung. Governance, Ethik, Transparenz sind keine Fußnoten, sondern Akzeptanz-Motoren – in Kanzlei, Unternehmen, Gericht.
Das Fazit ist unbequem, aber konstruktiv. Nicht abwarten, ausbauen. Nicht nur automatisieren, produktisieren. Nicht nur Streit lösen, Streit vermeiden. Susskinds Landkarte schützt vor Naivität, Schließmanns Cockpit vor Blindflug. Wer beides zusammenführt, kommt zuverlässig durch die 2020er – und steht 2030 nicht am Abgrund, sondern am Startblock.
Quellenhinweise (Auswahl): Susskind (SCL-Präsidentschaft; How To Think About AI; Online Courts; Tomorrow’s Lawyers), Schließmann/StrategieAI (Artificial Intuition, Ontonix-basierte Komplexitätsanalyse, Strategie-Würfel, StrategieAI-Tool)