Complicación con wordpress y google

He creado un sitio en Wordpress. Dentro de sus opciones de privacidad, active la opción para que sea visible a los buscadores. Luego me fui a las herramientas para webmaster de google y agregue el sitio. Cree el archivo sitemap.xml lo cargue por ftp a la raíz de mi dominio y también se lo envíe a google. El tema es que no me reconoce el sitemap ya que me indica que Googlebot se encuentra bloqueado para http://www.midominio.com.
Me indica que en el archivo www.midominio.com/robots.txt aparece
User-agent: *
Disallow: / 
Siendo que no he agregado ningún robots.txt. Lo cree pensando que reemplazaría dichos bloqueos y le indique que permitirá todos los bots y lo agregue a la raíz de mi dominio. Pero aun así me sigue apareciendo lo mismo. Es como si no me leyera el archivo txt que cree.
El tema es que si no lo soluciono no podre posicionarme en google.
En que estoy fallando...

3 Respuestas

Respuesta
1
Para lo del sitemap tienes módulos de Wordpress que te hace más fácil la edición y la gestión de los sitemap.
¿El Wordpress lo has instalado tu mismo, en tu propio dominio? O estas usando uno del propio wordpress.
El archivo tiene que poner esto:
User-agent: *
Allow: /
Puede que el problema también este en el hosting.
Coméntame y lo miramos
Respuesta
1
Lamentablemente no somos usuarios de Wordpress, hacemos la mayoría de los desarrollos a medida, y los programadores que trabajan esa parte están a full con trabajo por lo que no puedo molestarlos.
Pero a mi entender deberías probar lo siguiente:
En ese robots.txt coloca esto en lugar de lo que tienes:
User-agent: *
Allow: / 
Sitemap: (la URL completa del sitemap)
Por defecto, si no colocas un robot debería levantar TODO EL SITIO, pero no se específicamente como trabaja Wordpress. (No creo que sea tan distinto de un portal común hecho a mano!). Lo que vos colocaste con el "Disallow" le esta diciendo, básicamente, "che, a todos uds los robots de búsqueda, no lean NADA DE MI SITIO!"... ¿me explico?
De esta otra forma, le decís "che, a todos uds los robots de búsqueda, LEAN TODO!"
Vos podes después de ese ALLOW que te pase, colocar varios "Disallow", uno por linea, deshabilitando carpetas, directorios o hasta archivos o tipo de archivos según desees, ¿me explico?.
EDIT: revisa sino este modelo que ofrecen en este link http://forobeta.com/google/36485-problema-googlebot.html . Parece que ofrece otra solución, quizás se adapte mejor!
Espero haberte podido ayudar pese a mi ignorancia en Wordpress!
Cualquier cosa volvé a preguntar!
Respuesta

Seguramente tengas en la configuración de WordPress activada la casilla “disidir a motores de buqueda”... en caso de que ya esté desactivado, es posible que hayas instalado algún plugin de seguridad o de seo y que haya configurado un robot.txt y por eso el que hiciste manualmente no funciona, así que deberías asegurarte de que solo tengas un único archivo en todo el sitio, que a veces puede estar dentro de alguna carpeta.

Añade tu respuesta

Haz clic para o

Más respuestas relacionadas