Wer für gewöhnlich ohne Kekse sürft, der hat für gewöhnlich auch genug Grips, um sie situationsgemäß einzuschalten. Da die Seite ungefährlich ist, gibt es in diesem Fall keinen Grund für Restriktionen.
Nein. Ich würde sie whitelisten, weil sie sonst nicht _funktioniert_, und ich nicht an die Informationen käme. Aber das ist eigentlich nicht die Position die ich haben möchte. Zumal ich das halt nicht mache um irgendeinen Vorteil zu bekommen (Passwort nicht neueingeben müssen, irgendwelche Einstellungen behalten) sondern nur weil jemand gerade mal Cookies für sein homemade-Kommentarscript missbraucht.
Aus diesem Grund ist die Frage warum denn Cookies benutzt werden berechtigt, weil es offensichtlich keinen Vorteil gibt, sondern nur Benutzer ausgeschlossen werden und es sogar praktische Nachteile hat:
Das ist exakt das worauf ich hinauswill, ich bin gewillt die Whitelist um Einträge zu ergänzen, wo ich einen Vorteil daraus ziehen kann, aber nicht um vor technischer Unzulänglichkeit zu kapitulieren, um halt doch noch nen Blick auf den wertvollen Content zu werfen.
Dann gibts ja noch die dritte Klasse von Seiten, die ohne dass es nötig wäre mit Session-IDs um sich werfen, obwohl sie eigentlich nur statischen Content ausliefern, wegen genau solchen hab ich auch kein "ask" als policy, sondern nen default auf "deny" und den Cookiebutton um schnell die Whitelist ergänzen zu können.
[EDIT]
Ich wollte nicht bashen – das ist eine böse Unterstellung. Allerdings hatte ich beim Besuch der Seite Probleme, weil sie eben nicht ohne Cookies funktioniert und kein entsprechender Hinweis zu sehen ist. Das könnte auch andere Besucher interessieren, die möglicherweise die Ursache nicht erkennen.
Und er könnte auch den Programmierer interessieren. Leider sind die Seiten zuviele geworden, wo kaputte Skriptereien einem dem ungestörten Zugang zum Content verwehren, früher hab ich da noch häufiger Mails hingeschickt.
[rant]Das wird mit so AJAX-Gelöt (was ich technisch total toll find, btw, endlich kein "nächste 15 Dinge" sondern nachladen, wenn man am Ende angekommen ist, DHTML-Kram wie drag&drop-tabellen, die live auf dem Server geupdatet werden, alles toll) auch alles andere als besser.[/rant]
"Den content da runterladen" ist eigentlich etwas was man jedem Webuser möglich machen sollte, der sollte da eben _keinen_ screen scraper in perl für schreiben können müssen, der jeden cornercase berücksichtigen und am besten noch javascript interpretieren kann.
Die Alternative ist, dass jemand, der sich das mal in Ruhe zu Gemüte fühlen will jede seite einzeln ansurft und "Speichern unter" drückt. Und da sollste den Leuten dann erzählen, dass ihnen Computer das Leben erleichtern können.[/EDIT]