Google will eine Debatte über neue Protokolle anstoßen, die Web-Publishern die Wahl und Kontrolle darüber geben, wie ihre Webinhalte von künstlicher Intelligenz gecrawlt werden können.
Das US-Internetunternehmen ist der Ansicht, dass Web-Publisher in der Lage sein sollten, ausreichend Kontrolle darüber zu behalten, wie ihre Inhalte im Web verwendet werden. Die derzeitigen Instrumente, wie die Implementierung von robots.txt, wurden laut Google zu einer Zeit entwickelt, als es noch keine künstliche Intelligenz gab, so dass neue zusätzliche Protokolle in Betracht gezogen werden müssen. Heute können Website-Administratoren die Textdatei robots.txt verwenden, um festzulegen, welche Teile einer Website von einer Suchmaschine gecrawlt werden können und welche nicht.
Google möchte eine Debatte anstoßen, bei der Akteure aus der Internetbranche und der Welt der künstlichen Intelligenz in einen Dialog treten. Das US-Internetunternehmen möchte viele verschiedene Stimmen hören und lädt auch Personen aus der Wissenschaft und anderen Bereichen ein, sich in den kommenden Monaten an der Diskussion zu beteiligen.