![]() |
ENGLISH VERSION |
|
| Links | | | Forum | | | Kommentare | | | News melden |
| Chat | | | Umfragen | | | Newsticker | | | Archiv |
| [Login] [Registrieren] [Passwort vergessen?] |
| |||
| 04.Mär.2002 Klaus Schallhorn (E-Mail) |
Suchmaschinen-Werkstatt: Google-Sicherheitsverstoß Als Google anfing, auch nicht webtypische Dokumente wie PDF, RTF oder Word-Files zu indizieren und solche Dateien dann bei Google sichtbar wurden, mussten sich Web-Verantwortliche vorhalten lassen, Server inkorrekt konfiguriert zu haben. Eine neue Google-Ungereimtheit legt nahe, dass diese Schelte - möglicherweise - nicht immer gerechtfertigt war. Wie die Firma Klaus Schallhorn Omnisearch jetzt belegt, indiziert Google auch Seiten auf sog. Sicheren Servern [SSL], die über das HTTPS-Protokoll geliefert werden, obwohl Google vorgibt, solche Seiten nicht zu indizieren. Inzwischen wurden mehr als 3.8 Millionen solcher Seiten durch Google indiziert. Schlimmer noch: Google gibt zwar vor, den robots.txt-Standard zu beachten, ignoriert aber zumindest beim Abruf von Seiten über HTTPS genau das Protokoll, das Spidern den Zugriff auf bestimmte Web-Bereiche verbietet. Inzwischen haben Googles Spider 161,000 cgi-bin Programme auf HTTPS-Servern ein- oder mehrfach ausgeführt. Wer die in entsprechenden Suchergebnissen genannten Server prüft, findet schon unter den ersten 10 Ergebnissen solche, deren robots.txt-Dateien Spidern den Zugriff auf /cgi-bin und andere Bereiche auf HTTPS-Servern ausdrücklich verbieten.
Web-Verantwortliche, die verhindern wollen, dass Seitenaufrufe
oder Programmausführungen über HTTPS von Spidern ausgelöst
werden, sind gezwungen, neue Schutzmaßnahmen zu ergreifen. | ||
| |||
|
Impressum |
Datenschutzerklärung |
Netiquette |
Werbung |
Kontakt
Copyright © 1998-2025 by amiga-news.de - alle Rechte vorbehalten. |