
¿Qué es un Robots.txt?
Robots.txt es un archivo de texto almacenado en el servidor de un sitio web que se comunica con los rastreadores de búsqueda. A los robots de indexación o rastreadores se les “dice” qué archivos y carpetas se pueden ver y qué archivos y carpetas el webmaster no permite ver.













