Immer wieder tauchen in der Presse Berichte darüber auf, wie (Nicht-)Juristen mit KI-generierten Formulierungen unangenehm auffallen: Zumeist dadurch, dass die KI „halluziniert“, also bspw. Gerichtsurteile und Fachliteratur einfach erfindet.

Zuletzt fiel damit offensichtlich ein Fußballverein auf, der vor dem Sportgericht einen 73-seitigen Schriftsatz eingereicht hatte, um eine Geldstrafe von fast 20.000 Euro wegen Pyrotechnik zu verhindern. Das Sportgericht bemerkte aber reihenweise Falschzitate von nicht vorhandenen oder genau gegensätzlich interpretierten Urteilen und Fachaufsätzen.

Auch wir bekommen in unserer anwaltlichen Beratungspraxis immer öfter offenkundig KI-generierte Stellungnahmen oder auch Vertragsvorlagen. Gerade bei Vertrags- oder AGB-Klauseln merkt man aber schnell, wenn der KI-Bediener nicht so recht wusste, was die KI wissen muss, um eine ausreichende Klausel zu generieren.

Wir verwenden selbst natürlich auch KI. Wir nutzen sie vornehmlich zur schnelleren Suche und als Ideengeber. Juristische Fachverlage bieten (zumeist natürlich kostenpflichtig) Chatbots an, die ihre Ergebnisse nicht aus dem wilden Internet heraus generieren, sondern aus einer fachlich gepflegten Datenbank aus originalen Gerichtsurteilen und Fachliteratur. Diese Chatbots haben den Vorteil, dass sie nur das ausspucken, was auch einigermaßen fundiert ist. Aber auch hier muss man genau wissen, was man dem Chatbot sagen muss.

Vielleicht wird die KI irgendwann die klassische Arbeit des Juristen nicht nur unterstützen, sondern auch ersetzen: Allerdings wird es den Juristen brauchen, um der KI zu sagen, was sie machen soll, heutzutage wäre das Formulierung des Prompts. Das gilt für alle Berufsfelder: Jemand muss wissen, wir er die KI anleitet.

Übrigens: Das Thema Künstliche Intelligenz wird für alle immer wichtiger, umso wichtiger ist aber auch, sich mit den rechtlichen Grenzen und Pflichten auseinanderzusetzen. Daher werden wir auch hier auf Eventfaq dieses Thema immer weiter ausbauen.