Saltar al contenido
Ramon Cano

Crear Un Robotstxt Con Yoast Seo Para Enviar A Google

Si, por el contrario, quieres estudiar a modificar bien el archivo robots.txt te recomiendo este tutorial sobre esto. Además de guiarte con la existencia de tu ubicación en los buscadores web, el plugin Yoast SEO te ofrece una ayuda en lo relativo a tu presencia en las comunidades. Lo segundo y más importante es el “Título SEO” y la “Misión descripción” de la portada de tu cibersitio; tienes un espacio para redactar lo que quieras en los dos casos. Primeramente, el “Separador del Título”; este separador se utiliza para ponerse entre el título de las entradas y el nombre de tu web en los resultados de búsqueda. Otro de los puntos bastante útiles de Yoast SEO es que nos permite tener una visión de cómo se mostrarán nuestros artículos en los resultados de la búsqueda.

Desde aquí empezamos con la configuración de Yoast SEO. Mijael, ingeniero de profesión, se dedica a hacer dinero en la red con sus Páginas Nicho de Afiliación. Seguidamente, introdúcela en un navegador y verifica si se puede acceder apropiadamente. No obstante, si no tienes un programa FTP, puedes bajar ciertos gratis si bien la mejor opción es que consultes a tu distribuidor de hosting.

El archivo robot.txt es el fichero que se encuentra en la raíz de un sitio web y también indica a qué partes no deseas que accedan los rastreadores de los buscadores web. Página primordial, artículos del blog, páginas estáticas obviamente las querrás enviar al sitemap. Categorías de blog, archivos, paginas de autor o etiquetas, es probable que no, ¿por qué razón? En este caso los sitemaps tienen la posibilidad de ayudar a que Google plus tenga información agregada de todos estos ficheros como imágenes o videos. Una de las formas que tienen los bots de hallar y seguir páginas es mediante enlaces internos y externos y en el caso de que no tener estos últimos por el hecho de que sacaste tu web ayer, hace algunas semanas, un mes… el sitemap te puede ayudar. Google plus desea prestar una aceptable experiencia a los individuos que visiten las webs que posicionan.

Habilitar el almacenaje en caché le da al navegador web la opción de recobrar esa información de una versión antes guardada o del servidor. Seleccionar un plan de hosting adecuado que tenga en cuenta tanto el tráfico de la página como su dimensión contribuye a garantizar que tu web cargará de forma rápida y que, a su vez, va a estar libre para los clientes. El formato WebP disminuye el tamaño de los archivos sin perjudicar a la calidad de las imágenes. De hecho, los estudios demuestran que las imágenes sin pérdida de calidad de WebP son un 26% mucho más pequeñas en comparación con un PNG, y entre un 25% y un 34% más pequeñas que las imágenes JPEG comparables. Además de esto, existe una secuencia de pasos que permiten progresar tu posicionamiento en línea.

Importancia De Tener Una Web

El modo a través de el cual el usuario puede andar correctamente y entender esa navegación en tu sitio mejora su satisfacción y, por consiguiente, su tiempo de permanencia, bajando la tasa de choque y mejorando la tasa de conversión. De este modo, puedes controlar con exactitud tu estado de indexación y corregir probables errores que pudieran estar afectando a la existencia de tus URLs en Google plus. Si así ha sido, quita la etiqueta directiva o recomendación que crea el problema de indexación y más tarde pasa la URL por Inspección de URLs para pedir la indexación a Google+.

Una vez escritas todas y cada una de las ordenes disallow, incluir directivas allow para contemplar las excepciones, tomando las mismas precauciones que en los puntos 5 y 6. El patrón “/documentos” NO sería válido para la carpeta “/datos/documentos/”, puesto que no comienzan igual. Usuario-agent, que identifica el rastreador que debe cumplir las ordenes que se señalen en las líneas siguientes del fichero.

crear un robots.txt con yoast seo para enviar a google

En cualquier caso, bastaría con modificar el robots de esas páginas como noindex, crear un sitemap con ellas y mandarlo, a fin de que en el momento en que las rastree el robot las desindexe con mayor rapidez. El SEO on page asistencia tanto a los buscadores como a los clientes a entender el contenido de una página. Otra forma de notificar dicha información a Google+ es añadir el mapa del lugar al Robots.txt para que los robots rastreadores accedan a la dirección, la examinen como una parte del desarrollo de rastreo e indexen su contenido. También refiere el proceso de “registrar ordenadamente datos y también aclaraciones, para llevar a cabo su índice”. Cuando los motores de búsqueda indexan un portal de internet quiere decir que la página forma parte de su enorme índice de búsqueda. El mapa del lugar informa sobre los archivos de la página que son importantes para tu búsqueda, así como datos relevantes sobre ellos, como son la arquitectura de link, la fecha de su última revisión, actualización, o si hay ediciones en otros idiomas.

¿no Has Dado Tu Website De Alta En Buscadores Web? ¿que Todavía No Sales En Google Plus? ¡pero Qué Me Afirmas!

Esto quiere decir que Google plus ya ha rastreado e indexado esta dirección de Internet. En caso de haber encontrado un inconveniente en cobertura o facilidad de uso, te lo mostraría más abajo y podrías comprender mucho más información sobre el problema detectado. Si tienes más de una URL posicionando o atacando exactamente la misma keyword podrías estar cayendo en un problema de canibalizaciónuno de loserrores SEO más frecuentes. Cuando esto sucede, debes reagrupar tu contenido en una sola URL y redireccionar todas y cada una esas URLs afines hacia esta URL primordial caso de que tuviesen tráfico/popularidad/links/compartidos en redes, etcétera. En esta sección puedes preguntar el desempeño SEO de tus palabras clave, esto es, qué situaciones ocupan tus keywords, cuántas impresiones y clicks desarrollan y, por consiguiente, qué CTR consigues para cada una de ellas. Es la sección equivalente a la vieja «Analítica de Búsqueda» en la versión previo de Search Console.

crear un robots.txt con yoast seo para enviar a google

Otros añaden solo una propiedad por sitio web así sea con o sin www, con o sin https, afectará en el seo? Si desea denegar su página de los resultados de la búsqueda, use un procedimiento diferente como la protección con contraseña o la meta directiva noindex. El REP también incluye directivas como misión robots, tal como normas de página, subdirectorio o en todo el sitio sobre de qué manera los motores de búsqueda tienen que tratar los enlaces (como «continuar» o «no proseguir»). Aquí es donde asimismo puede habilitar/deshabilitar la seguridad para los autores. La sección avanzada del metacuadro Yoast SEO permite al usuario remover publicaciones de los resultados de la búsqueda o mudar el canónico.

Estas 2 opciones son útiles a la hora de redactar un artículo en tanto que el plugin nos avisara de los posibles errores SEO que hayamos podido cometer en el texto. También podemos decirle si el sitio web es personal o una compañía / comercio. No hay una forma adecuada o errónea de configurarlo, solo opciones diferentes que cada usuario puede escoger. Asimismo tenemos la posibilidad de ir a su página web y descargarlo por si acaso queremos instalarlo vía FTP. La versión gratis es muy buena y más que suficiente para la enorme mayoría de usuarios.

Es el primer archivo que consultará el robot y todos los robots acreditados respetan las directivas del archivo robots.txt. Espera unos segundos y después haz click en Solicitar indexación. Me explico, si tienes una página web segura tienes que introducir la url con el prefijo https (o http si tu web no posee el certificado ssl). seguramente, tu portal web redirija de www a sin www, o a la inversa. Pero aparte de investigar, esta herramienta también es que se requiere para optimizar y progresar tu posicionamiento SEO.

En cambio, los sitemaps dinámicos se actualizan de manera automática toda vez que creamos o eliminamos una página del sitio web, una mejor opción si contamos una web con contenido que se actualiza con mucha continuidad. Podemos encontrar distintas formatos de sitemaps, como por ejemplo los sitemaps xml, el más utilizado, puesto que está enfocado a hacer más simple el rastreo de los robots en el sitio web. Con estos archivos asistimos a los robots a rastrear el sitio de una manera más eficiente, puesto que “les ofrecemos” de forma estructurada como está organizado el sitio web. De modo que sabrán qué páginas son mucho más y menos relevantes, tal como los cambios realizados recientemente, entre otros muchos. Es un lenguaje en schema.org y son información para máquinas firmes en etiquetas o anotaciones que describen el contenido de tu web. El usuario no puede verlo pero sí los robots que los utilizan para indexar las urls.

Centrar el rastreo de buscadores web solo de los contenidos que nos resultan de interés. No obstante, la última cosa que nos gustaría es que Google+ mostrase entre sus resultados de búsqueda la página de ejemplo queWordPressinstala predeterminado. Y por último, al llegar al #Tecer Bloque tenemos la posibilidad de agregar la dirección de Internet del fichero de mapa de sistema XML con la intención de guiar a los bots hacia el contenido que tienen que rastrear. Bloquea la entrada a bots concretos a tu web y les impide que logren entrar a tus ficheros.

Revisar el fichero robots.txt cada vez que haya algún cambio estructural en el sitio web (novedosas partes, nuevos tipos de elementos, etc.). Posiblemente leáis que puede haber rastreadores que provoquen fallos 404 si no hallan el robots.txt pero, ¿qué queréis que les diga? Finalmente, observad que el fichero sitemaps realmente no impone ninguna restricción de rastreo, sino que simplemente comunica al rastreador de las páginas libres para su rastreo.

Tan solo deja de estar localizable a través de cualquier sistema de búsqueda (Google plus, Bing, etcétera.) pero prosigue estando accesible desde la propia web. Por eso este método es realmente bueno para señalar, por ejemplo, que no deseamos que la carpeta donde poseemos contenido temporal o duplicado sea indexada, en tanto que esto nos conllevaría una penalización SEO. Es primordial entender que este mecanismo se basa en la buena voluntad de los desarolladores de arañas y crawlers, en tanto que visto que un sitio web cuente con un fichero robots.txt no ordena a nada, y cualquier programa puede omitir lo que en él ponga.

Desde ahí, nos vamos a encontrar una pestañita para mandar el archivo. Entre las virtudes que da Blogger, Wix, WordPress.com o Weebly, es que al estar alojados en parte del espacio que tienen disponible, no debes trabajar el archivo. En caso de que la popularidad de la página sea baja, asimismo es interesante tener uno. Si la página web tiene un buen enlazado interno, de entrada, la página web se puede seguir bien.

Buenas Bruno, se me indexo la web sin los «www» delante del dominio por el hecho de que no lo puse de esta manera. Al dia siguiente me percaté y cambie la url en wordpress para que empezara con «www» . Pienso que no es bueno evitar por ejemplo que el robot de Google plus rastree la paginación de un post (artículo individual). Pero si se debería evitar la INDEXACIÓN de cada página del producto con excepción de la primera. De ahí que ahora puedes indexar las paginaciones siempre que tengas bien implementadas las misiones prev, next y canonical, para que en el momento en que pase Google plus pueda ver todo el contenido paginado adecuadamente.

Entonces me surge una enorme pregunta ¿Que se puede hacer para regresar a las métricas antiguas? Sin duda aplicare cosas aquí comentadas a ver si recupero algo de lo perdido. En este capítulo tienes un formulario para mandar a Google plus tus comentarios, recomendaciones, protestas, reclamaciones de derechos de autor, demandas de contenido ilegal o malicioso y solicitudes para su retirada, etc. En esta sección verás los informes sobre acciones manuales de Google+ sobre tu lugar y además lograras intentar solucionarlas mandando una petición a Google plus mediante Pedir Revisión, en el momento en que hayas arreglado los inconvenientes causantes de la penalización.

Esto te va a ayudar a ofrecerle un empujón de salida a tu Blog y no te perjudicará en lo más mínimo. Soy claro defensor de los intercambios de links en el momento en que se está comenzando, siempre y cuando no se abuse de esta técnica. En esta sección voy a listar, lo que para mi son las 3técnicas de Backlink Building mucho más poderosos que debes realizar en el momento en que lanzas tu Blog o Web en WordPress. Si te fijas bien, vas a ver que en cada uno de esos fragmentos vas a tener 2 enlaces (mínimo) apuntando al artículo específicamente, el enlace en el título y el texto o botón de leer más. A mi es el plugin que mucho más me agrada, y a pesar de lo que otros piensan, a mi me semeja un Plugin bastante completo, siempre y cuando sepas que hablamos de un Plugin y no de un «Consultor SEO robotizado».

Para ello optima las imágenes, emplea plugins que ayuden con el caché, diseño, entre otros muchos. Al empezar tu web tienes que realizar una búsqueda de keywords, estas te servirán para crear contenido de calidad para tu web. Las keywords son expresiones o frases que describen tu contenido, tienen la posibilidad de ser cortas o de cola larga. Y al incluirlas en tu contenido vas a poder recibir el tráfico preciso. Los websites hoy día forman parte escencial de cualquier negocio, todos deben tener presencia online para ofrecer un mejor servicio, dar confianza y estar disponible 24/7. Pero no basta solo con poseerlo, es esencial hacer una estrategia SEO para principiantes, de este modo vas a poder posicionarla en motores de búsqueda.

Hasta ahora, nunca me he sentido en la necesidad de identificar de manera expresa el user-agent de un rastreador y siempre y en todo momento he usado el asterisco. Y, la verdad, tampoco imagino ningún escenario en el que proporcione alguna ventaja la configuración de distintas restricciones de ingreso a un recurso para uno u otro rastreador . Disallow, que deniega el acceso a un recurso, sea un fichero o grupo de archivos, o un directorio o grupo de directorios. Muy interesante pero me gustaría preguntar si ¿Sabe usted como se puede acceder al robot.txt en la nueva versión de Google plus Search Console? El disallow que dices es un tanto engañoso, pero no desactiva que se indexen los comentarios de una entrada, es para eludir que un mismo comentario pueda verse desde mucho más de una localización. Con la poca información que tengo te afirmaría que tienes query strings en tus recursos estáticos y quizás de ahí que no están accediendo en el allow.

Bloqueando determinados bots a nivel buscadores web, eludimos que esas páginas o grupo de ellas sean rastreadas por éstos. La fase de indexación de esas páginas dependerá de más señales, es decir, que bloqueando su rastreo no garantiza su no indexación. En cuanto al fallo que me comentas… lo cierto es que no sé qué puede haber pasado. Quizás podrías desinstalar SEO Yoast de tu página y volverlo a instalar, a fin de que te vuelva a soliciar de nuevo el código de autorización.

Guardar mi nombre, correo electrónico y web en este navegador la próxima vez que comente. Lo que vimos hasta ahora es únicamente una base mínima que debes controlar para optimizar el posicionamiento de tu web en WordPress. Así, los individuos podrán llegar a él más de forma fácil cuando procuran información sobre un tema en concreto. Pero además de esto, para que estas imágenes ayuden a prosperar el SEO para WordPress, habrá que ingresar la etiqueta “alt” a la imagen, describiendo en ella lo que se expone e introduciendo la palabra clave y variaciones. En consecuencia, vamos a tener un H1 que va a ser el título, en el que DEBES integrar la palabra clave. Deberá ser un título atrayente, que logre sintetizar en 5 o 6 palabras de qué va el texto.

No obstante, el producir un Sitemap en tu portal web es otro aspecto clave y que mucha gente ignora su relevancia. Muchas son las herramientas gratis que ofrece Google plus para dueños de sitios web y programadores, Analytics y Search Console son claves si deseas mejorar el SEO. Si deseas prestar una buena experiencia a los clientes debes enfocarte en mucho más que solo los puntos visuales de tu lugar.

crear un robots.txt con yoast seo para enviar a google

También proponen unos servicios de soporte, redirecciones, expresiones claves, etcétera… que se pueden contratar si se necesitan si bien el complemento en su versión gratuita es completamente eficaz y bastante para la mayor parte de los usuarios. Desde la pestañita Tu información tenemos la posibilidad de cambiar el nombre con el que se mostrará el sitio web de cara a Google+. También podemos encender o desactivar las opciones de OnePage.org, para comprobar la indexación de nuestro sitio en los buscadores y activar o desactivar el menú en la barra superior. Cualquier negocio que desee tener presencia en Internet necesita, en buena medida, aparecer en los primeros puestos de los resultados de la búsqueda de buscadores como Google plus.

De Qué Manera Subir Un Fichero Robots Txt De Forma Manual En WordPress Por Medio De Cpanel

Habría que comprobar la configuración del Yoast para revisar que no haya alguna interferencia con el tema o algún plugin, que hayan desarrollado géneros de contenido que puedan afectarlo de alguna manera, aunque me parece algo muy raro. En la línea Sitemap, pone tu dominio y el nombre del fichero sitemap. Sin embargo, no estoy seguramente el inconveniente venga por aquí, pero como voy a ciegas, por ir probando.

Por servirnos de un ejemplo, un creador web que ha negado el ingreso a la web en un archivo robots.txt. Las webs usan estilos CSS para enseñar su contenido a los usuarios. Muchas webs emplean JavaScript para cargar elementos de contenido clave. Y asimismo algunas de ellas presentan algunos problemas con este código. Si deseas conocer cuál es la agilidad carga de tu web puedes utilizar Google+ PageSpeed Insights. Además, obtendrás un informe personalizado sobre los posibles inconvenientes que afectan a su desempeño.

  • De hecho, John Mueller, de Google plus, recomienda de manera expresa borrarlo si no vamos a usarlo.
  • Sitemap es un listado de urls que contiene todas aquellas páginas que deseamos que Google+ indexe.
  • Como ves, sencillamente hicieron falta 2 simples plugins en esta sección y tener mimada la agilidad de carga de nuestra Web.
  • Aquí es donde asimismo puede activar/deshabilitar la seguridad para los autores.
  • O sea lógico, si no deseas que la misión en sus desenlaces no debería estar en el sitemap.xml.
  • Aquí puedes observar los diversos tipos de formatos y lo que significa cada uno de los factores.
  • Se puede poner un fichero robots.txt predefinido pero, para eludir futuras adversidades, es preferible crearlo uno mismo y configurarlo de la manera mucho más correcta para obtener un buen posicionamiento en buscadores web.
  • Ciertos robots se dedican a hacer muchas necesidades que pueden saturar el servidor y provocar que la navegación por la página sea mucho más lenta.
  • En ocasiones las tienes excluidas porque de esta manera lo has decidido llevar a cabo mediante esta clase de acciones, con lo que no habría que realizar nada más, pero otras veces son consecuencia de un fallo o un despiste.
  • Sabrás que está adecuadamente activo en tu WordPress porque aparecerá un nuevo menú llamado “SEO” y aparecerá un ícono del plugin en la barra de herramientas de WordPress.
  • Sin embargo, el archivo robots.txt que WordPress configura de forma ya establecida no es accesible en lo más mínimo, desde ningún directorio.
  • De esta forma, sabrán qué páginas mostrar en el momento en que alguien busque keywords similares.
  • Si has escogido esa opción de la derecha, en el siguiente paso te ofrecen múltiples métodos de verificación.
  • Si quieres sugerir una aceptable experiencia a los individuos debes enfocarte en más que solo los aspectos visuales de tu sitio.
  • La experiencia en la página es un aspecto del top de Google plus, esto incluye las métricas web principales.

Puedes ejercer tus derechos de ingreso, rectificación, restricción y supresión mandando un correo a Puedes preguntar la información completa y detallada sobre intimidad en nuestra política de intimidad. Si tienes ganas de saber qué es un archivo robots.txt y cómo beneficia a tu sitio web, puedes leer este post. A la hora de pensar como va a ser tu archivo robots txt, asimismo te invito a que te des un paseo por los foros especializados; para poder ver los nuevos bots malignos que van surgiendo, y lo letales que pueden ser para tu web. Lógicamente puedes revisar en esta propia web que utilizo el fichero tal y como lo voy a describir ahora, no se trata sólo de explicar la teoría, hay que mostrar de forma práctica la utilidad del archivo. Asimismo debo decir que la decisión de utilizar este tipo de arquitectura del archivo robots.txt es solo tuya, y que toda compromiso si algo no funciona es tuya.

Para garantizar el anonimato, Google plus convertirá su información en anónima truncando la dirección IP antes de almacenarla, de manera que Google+ Analytics no se utiliza para hallar o conseguir información personal identificable de los visitantes del lugar. Google+ solo podrá enviar la información recabada por Google+ Analytics a terceros cuanto esté legalmente obligado a ello. Conformemente con las condiciones de prestación del servicio de Google plus Analytics, Google plus no asociará su dirección IP a ningún otro dato preservado por Google plus. En el momento en que escogí el dominio para mi web, busqué una terminación muy original, por el hecho de que me venía bien para llenar una oración de búsqueda. Con esta alternativa de la herramienta, tenemos la posibilidad de explorar nuestra web como lo hace Google plus. La herramienta nos proporciona un listado de todas las URLs, con su tipo de error y la fecha en la que fue detectado por última vez.

El almacenamiento o acceso técnico que es utilizado exclusivamente con fines estadísticos. El almacenaje o ingreso técnico es requisito para la finalidad lícita de almacenar opciones no pedidas por el abonado o usuario. Si por el contrario no tienes rechazado el ingreso anteriormente a wp-content, es tal y como si no pusieras nada. • Tenemos la posibilidad de incluir comentarios utilizando la almohadilla “#” al comienzo de una línea.

Este curso de indexación web en google+ está compuesto por 7 clases en vídeo, cien% prácticos. Pues descárgatelo ya y échale un ojo al artículo de Juan Alcaide (@muyambateam) en el que te explica de qué forma modificar el plugin en 15 minutos paso a paso. Para los que no lo sepáis, este plugin es probablemente el más destacable para trabajar el SEO de tu web. Desde el Editor de archivos tenemos la posibilidad de crear y cambiar un archivo robots.txt y modificar el archivo .htaccess. Otras opciones muy comunes son son la de eliminar las expresiones vacías en los slugs (de, a, el, etc…) que no actuan en el posicionamiento y pueden prolongar bastante la url y quitar las cambiantes ?

Algunos robots se ocupan de llevar a cabo muchas peticiones que pueden saturar el servidor y provocar que la navegación por la página sea más lenta. Dejar esta cookie activa me ayuda a poder investigar mediante informes estadísticos, el tráfico web de este ubicación y seguir ofreciendo una aceptable experiencia web. Existen excelentes sugerencias sobre la creación y configuración de este fichero en internet. Desde la básica de Google plus hasta mucho más descriptiva para WordPress como la que ofrecen Ayudawp.com. Con lo que afirmas, parece que no están libres estos recursos por el hecho de que los andas bloqueando en tu robots.txt. Primeramente suerte por el artículo por el hecho de que es muy bueno y de mucha herramienta por tu forma de explicarlo, gracias a dios que lo encontré.

¿Cómo Hacer Un Sitemap Xml? Facilita El Rastreo De Tu Web

Este es un apartado muy apreciado para investigar tu SEO, puesto que puedes observar de manera descriptiva tu rendimiento orgánico y marcar estrategias de cara a mejorar posiciones y CTR de las keywords que ya tengan cierto posicionamiento. Por consiguiente, se trata de una sección que te resulta conveniente visitar de manera periódica. Por consiguiente, si emplearas el procedimiento de Etiqueta HTML deberías pegar la meta etiqueta en todas y cada una de las páginas una a una, lo que sería bastante molesto y complicaría además las modificaciones a posteriori.

Tácticas Y Acciones Para Progresar El Seo Off Page

Dos líneas de código en el fichero robots.txt habrían impedido que Google plus rastreara la web y la indexara en su índice. En ese caso lo destacado es bloquear esos directorios/páginas con robots.txt y añadir noindex en la metaetiqueta robots. Hola Bruno, disculpa, tengo un enorme inconveniente, me puedes ayudar, tengo un ubicación nuevo, en la consola de google+ ingrese ámbas direcciones con ¨www¨ y sin ¨www¨, para ambas agregué el sitemap y el fichero robots, el mismo para ámbas. Para desindexar varias páginas al unísono en masa o por lotes hace falta una extensión de Chrome que añade esta funcionalidad en Search Console, y que permite subir un archivo de artículo con todas las URL que quieras remover para que lo lleve a cabo automáticamente.

Optima La Velocidad De Carga De Tu Página

En principio, sí, deberías dejar que el rastreador logre seguir todos y cada uno de los scripts de tu web. ¿Debería dejar todo «abierto» en Yoast y cerrar de forma manual en robots? Asimismo probé con Google+ Xml Sitemaps y el fallo era exactamente el mismo. # Tampoco veo nada malo en seguir los attachments de los posts. # Desde mi criterio, no posee nada de malo incluir los links backtrack.

Contenidos Para Vencer En Redes Sociales

Asimismo tenemos la posibilidad de integrar una imagen señalada en el producto una vez estemos en WordPress. Dependiendo de la plantilla que emplees, esta se mostrará en los listados de categoría y la página principal del blog, y habitualmente es la que extraen las comunidades al previsualizar el contenido cuando se comparte. Un Sitemap es un fichero tipo índice que se utiliza a fin de que los buscadores web puedan localizar y también indexar todo el contenido del ubicación. Para los propósitos de este tutorial, guardamos este archivo de forma directa en nuestra computadora. Cuando hayas creado y guardado tu propio archivo, deberás conectarte a tu portal web a través de FTP. Si no andas seguro de de qué forma llevarlo a cabo, contamos una guía para llevarlo a cabo usando el cliente FileZilla simple de utilizar.