Quais são os problemas com os identificadores de sessão em URLs ?
As sessões são muito práticas, até mesmo essenciais, em muitos casos (rastreamento de publicidade...). No entanto, quando seus identificadores são usados em URLs, isso representa um grande problema.
A cada nova visita, uma nova sessão é iniciada, um parâmetro contendo o documento de identificação da sessão é adicionada a cada URL. O conteúdo do site não muda, é claro.
Portanto, potencialmente, obtemos milhares de URLs diferentes para o mesmo conteúdo. A cada visita, os mecanismos de pesquisa continuarão encontrando novas URLs, representando, assim, tantas duplicações.
Cada vez mais, os mecanismos que não queiram encher seus servidores com dados idênticos (o famoso « conteúdo duplicado ») estão limpando e perdendo cada vez menos tempo para penetrar na arquitetura do seu site, se esse último não for « Google-friendly ».
Uma das regras de ouro para se lembrar é a seguinte :
Um conteúdo - uma URL (indexada)
Existem diversas soluções de contornar esse problema :
- Não use a URL para memorizar sessões, preferir cookies (não depositáveis em robôs).
- Não crie uma sessão para os mecanismos.
- Somente abrir uma sessão quando o visitante (em seu espaço privado, sem referenciador) se conectar e não a partir da primeira exibição.
- Alterar o comportamento da URL do seu site se um robô for detectado (cloaking ou camuflagem)
- De acordo com os servidores IIS (Microsoft), o problema às vezes pode ser resolvido diretamente, configurando-o corretamente. Mas cuidado e testes são essenciais!