⚠ Wichtig für alle Webseitenbetreiber ⚠: Wie kann man eine komplette Webseite für ChatGPT sperren?

ChatGPT

Um ChatGPT von der Nutzung auf einer bestimmten Webseite auszuschließen, ist es erforderlich, im Rootverzeichnis des Webdienstes eine Datei namens "robots.txt" anzulegen.

 

Innerhalb dieser Datei werden die nachfolgenden Direktiven für den Bot festgelegt:

makefile
User-agent: GPTBot Disallow: /

Falls gewünscht, kann diese Anweisung verfeinert werden, um den Bot gezielt auf bestimmte Verzeichnisse entweder zugreifen zu lassen oder den Zugriff zu untersagen, zum Beispiel:

javascript
User-agentGPTBot Allow/pressemeldungen/ Disallow/leseproben/

Speziell für Content-Management-Systeme wie WordPress gibt es Erweiterungen, sogenannte Plugins, die eine Bearbeitung der "robots.txt"-Datei ermöglichen.

 

Beispielsweise ermöglicht das weit verbreitete SEO-Plugin von Yoast die Bearbeitung unter dem Pfad

 

"Yoast SEO > Werkzeuge > Datei-Editor > robots.txt".

 

Wichtig dabei ist zu beachten, dass die Einhaltung dieser Anweisungen seitens ChatGPT bzw. OpenAI vorausgesetzt wird. Dennoch bleibt die Frage bestehen, warum eine aktive Maßnahme erforderlich ist, um den Bot auszuschließen.

 

Trotzdem bleibt diese Entscheidung dem Betreiber überlassen. Es sollte berücksichtigt werden, dass es mittlerweile zahlreiche ähnliche KI-Anbieter gibt, die möglicherweise diese virtuelle Sperre nicht respektieren werden.

 

Obwohl OpenAI möglicherweise aufgrund von Kritik den Bot nun als solchen identifizierbar gemacht hat, wird dennoch von Urheberinnen und Urhebern oft angemerkt, dass ChatGPT geschützte Inhalte verwendet, ohne die entsprechende Entlohnung für die Urheber zu gewährleisten. Der Bot lernt unaufgefordert aus den Texten anderer, ohne hierfür eine Art "Gebühr" zu entrichten. Die Entscheidung von OpenAI, den Bot nun erkennbar zu machen, mag als eine geringfügige Zugeständnis nach dieser Kritik angesehen werden.

 

Jede Person, die sicherstellen möchte, dass ihre Inhalte vor dem Zugriff durch ChatGPT geschützt sind, sollte die oben erwähnten Direktiven in ihre "robots.txt"-Datei aufnehmen.