banner
Nachrichtenzentrum
Unsere Waren werden sowohl auf lokalen als auch auf ausländischen Märkten geschätzt.

Gericht lehnt die Verwendung von ChatGPT im Markenrechtsstreit gegen Louboutin ab

Jun 20, 2023

Louboutin hat sich in der letzten Runde eines Markenrechtsstreits in Indien durchgesetzt. Das Gericht erließ eine einstweilige Verfügung, die es einem unabhängigen Schuhunternehmen verbietet, Nachahmerschuhe mit roten Sohlen anzubieten. Gleichzeitig gab das Gericht Aufschluss darüber, wie künftig mit durch künstliche Intelligenz („KI“) generierten Beweisen verfahren werden soll. In einer Entscheidung vom 22. August ordnete Richter Prathiba M. Singh vom Obersten Gerichtshof von Delhi M/S The Shoe Boutique vorläufig an, keine Schuhe zu verkaufen, die Louboutins „Spike-Muster“ und seine rote Sohle widerspiegeln, und stellte fest, dass das Gericht dies nicht „anerkenne“. ein Monopol zugunsten von [Louboutin] für alle Schuhe mit Spikes oder farbigen Sohlen“, und um einer einstweiligen Verfügung zu unterliegen, müssen die Produkte daher „färbbar oder eine sklavische Nachahmung“ der Louboutin-Designs und ihrer berühmten sein rotes alleiniges Markenzeichen für die Berechtigung einer einstweiligen Verfügung.

Das Gericht blickte über die unmittelbaren Markenelemente der Klage hinaus und bot einige Einblicke in die Nutzung der generativen KI-Plattform ChatGPT, auf die sich Louboutin im Zusammenhang mit seinen Argumenten zur erworbenen Unterscheidungskraft stützte. Der Anwalt der französischen Schuhmarke argumentierte, dass zusätzlich zu den sekundären bedeutungszentrierten Beweisen, die sie vorgebracht hat, einschließlich der umfangreichen Werbung der Marke und der langen und kontinuierlichen Nutzung ihrer roten Sohlen – und der Aufmerksamkeit Dritter auf diese –, „der Ruf, dass …“ [Louboutin] gesammelt hat, kann auch auf der Grundlage einer ChatGPT-Anfrage ausgewertet werden, die im Auftrag von [Louboutin] weitergegeben wurde.“

Konkret übermittelte Louboutins Anwalt eine Antwort von ChatGPT (auf die Frage, ob Louboutin für Herrenschuhe mit Spikes bekannt ist), in der der Chatbot mit dem Large Language Model („LLM“) erklärte: „Louboutin ist für seine ikonischen roten Sohlen bekannt.“ Schuhe, darunter Spikes-Modelle für Männer und Frauen.“ Und das Team der Schuhmarke wollte dies als weiteren Beweis für die erworbene Unterscheidungskraft der Marke nutzen, wurde jedoch vom Gericht abgewiesen.

Während das Gericht feststellte, dass Louboutin ausreichende Beweise vorlegte, um eine einstweilige Verfügung zu rechtfertigen, kam es auch zu dem Schluss, dass ChatGPT „nicht die Grundlage für die Entscheidung rechtlicher oder tatsächlicher Fragen vor einem Gericht sein kann“, da die von einem solchen LLM bereitgestellten Antworten „davon abhängen“. eine Vielzahl von Faktoren, darunter die Art und Struktur der vom Benutzer gestellten Anfrage, die Trainingsdaten usw., [und] es besteht die Möglichkeit falscher Antworten, fiktiver Rechtsprechungen, fantasievoller Daten usw., die von KI-Chatbots generiert werden.“

Angesichts der Tatsache, dass sich die Genauigkeit und Zuverlässigkeit der von KI generierten Daten immer noch in einer „Grauzone“ befinde, stellte das Gericht fest, dass „KI weder die menschliche Intelligenz noch das menschliche Element im Rechtsprechungsprozess ersetzen kann, [und] das Werkzeug könnte es bestenfalls sein.“ wird für ein vorläufiges Verständnis oder für vorläufige Recherchen und nichts weiter verwendet.“

Die Entscheidung von Richter Singh folgt auf Anordnungen von Richtern in den USA, von denen einige verlangt haben, dass Anwälte, die vor Gericht erscheinen, bestätigen müssen, dass kein Teil ihrer Akten durch generative KI erstellt wurde – oder, wenn ja, dass die Informationen in diesen Akten enthalten sind wurde „von einem Menschen“ überprüft. Richter Brantley Starr vom US-Bezirksgericht für den nördlichen Bezirk von Texas ging beispielsweise auf das Potenzial generativer KI-Plattformen ein, Halluzinationen hervorzurufen und dadurch ungenaue Informationen bereitzustellen, und war damit der erste Bundesrichter, der dies ausdrücklich verbot Verwendung generativer KI – „wie ChatGPT, Harvey.AI oder Google Bard“ – für Einreichungen, es sei denn, der Inhalt dieser Einreichungen wurde von einem Menschen überprüft.

Gemäß dem Mandat von Richter Starr vom Mai 2023 „sind diese Plattformen in ihrem aktuellen Zustand anfällig für Halluzinationen und Voreingenommenheit.“ Bei Halluzinationen erfinden sie Dinge – sogar Zitate und Zitate.“

Richter Gabriel Fuentes vom US-Bezirksgericht für den nördlichen Bezirk von Illinois war ein weiterer Vorreiter an dieser Front und erließ am 5. Juni eine überarbeitete Geschäftsordnung, die verlangte, dass „jede Partei ein generatives KI-Tool bei der Vorbereitung der Ausarbeitung von Dokumenten für die Einreichung verwendet“. „Beim Gericht muss in der Akte offengelegt werden, dass KI verwendet wurde“, wobei in der Offenlegung das spezifische KI-Tool und die Art und Weise, in der es verwendet wurde, angegeben werden. Die Anordnung des Richters schreibt außerdem vor, dass die Parteien nicht nur offenlegen, ob sie generative KI für die Ausarbeitung von Einreichungen verwendet haben, sondern, noch grundlegender, ob sie generative KI für die Durchführung entsprechender Rechtsrecherchen verwendet haben.

Der Fall ist Christian Louboutin SAS gegen M/S The Shoe Boutique, CS(COMM) 583/2023 und IA 15884/2023-15889/2023.