Startseite » Google möchte, dass Websites die Kontrolle über das Crawling durch KI behalten und fordert eine Debatte

Google möchte, dass Websites die Kontrolle über das Crawling durch KI behalten und fordert eine Debatte

Google will eine Debatte über neue Protokolle anstoßen, die Web-Publishern die Wahl und Kontrolle darüber geben, wie ihre Webinhalte von künstlicher Intelligenz gecrawlt werden können.

Das US-Internetunternehmen ist der Ansicht, dass Web-Publisher in der Lage sein sollten, ausreichend Kontrolle darüber zu behalten, wie ihre Inhalte im Web verwendet werden. Die derzeitigen Instrumente, wie die Implementierung von robots.txt, wurden laut Google zu einer Zeit entwickelt, als es noch keine künstliche Intelligenz gab, so dass neue zusätzliche Protokolle in Betracht gezogen werden müssen. Heute können Website-Administratoren die Textdatei robots.txt verwenden, um festzulegen, welche Teile einer Website von einer Suchmaschine gecrawlt werden können und welche nicht.

Google möchte eine Debatte anstoßen, bei der Akteure aus der Internetbranche und der Welt der künstlichen Intelligenz in einen Dialog treten. Das US-Internetunternehmen möchte viele verschiedene Stimmen hören und lädt auch Personen aus der Wissenschaft und anderen Bereichen ein, sich in den kommenden Monaten an der Diskussion zu beteiligen.

Have your say!

0 0

Antwort schreiben

Your email address will not be published.

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Lost Password

Please enter your username or email address. You will receive a link to create a new password via email.

Zur Werkzeugleiste springen