Сделать и страницы, и изображения в одном файле
Выглядеть это будет примерно так:
[php]
<?xml version=»1.0″ encoding=»UTF-8″?>
<urlset xmlns=»http://www.sitemaps.org/schemas/sitemap/0.9″
xmlns:image=»http://www.google.com/schemas/sitemap-image/1.1″>
<url>
<loc>http://site.ru/page/</loc>
<image:image>
<image:loc>http://site.ru/kartinka.jpg</image:loc>
</image:image>
<image:image>
<image:loc>http://site.ru/photo.jpg</image:loc>
<image:title>Работа в Париже</image:title>
<image:geo_location>Париж, Франция</image:geo_location>
</image:image>
</url>
</urlset>
[/php]
В этой карте размещена одна ссылка на страницу и адреса с файлами изображений.
Соответственно, мы можем, помимо адреса самой страницы, передавать поисковику и информацию об изображениях, размещенных на этой странице.
Это корректный способ использования по сути двух видов файла в одном. Однако он не оптимальный, поскольку управлять изменениями в такой реализации будет сложно. На наш взгляд, оптимальный следующий способ.
Сделать отдельные файлы
Понятно, что можно генерировать два файла: один для изображений, другой для страниц. Более того, возможно и допустимо генерировать разные файлы для разных роботов, если для продвижения используются сложные схемы управления индексированием, и этот процесс разделяется для Яндекса и Гугла.
В этом случае нужно не указывать на файл sitemap в файле robots.txt, а в панелях для веб-мастеров указать адреса сайтмапов для той или иной поисковой системы.
Вот как это выглядит (указание на общий sitemap в robots):
В Search Console добавлена карта сайта для изображений:
Карта сайта добавлена в панели веб-мастера Яндекса:
Конкретно здесь такая реализация из-за того, что Яндекс некоторое время назад еще не поддерживал пространство имен для Sitemap image, поэтому мы и не добавили эту карту сразу в robots, а добавили только в GSC. Когда Яндекс стал поддерживать этот формат, мы добавили карту через ЯВМ, так как так быстрее.
Сейчас можно в файл robots.txt добавлять несколько ссылок на файлы карты сайта, и поисковые системы обойдут их все.
В файле robots.txt
Обычный файл robots для обычного сайта выглядит стандартно. Как правило, в таком обычном файле директивы используются для всех Usar-agent, в том числе ссылка на карты сайта для всех роботов одна.
При этом надо понимать, что сканированием графического контента на сайте занимаются специальные роботы — Googlebot Image и Yandex Images. Для этих агентов можно прописать свои директивы и свои карты сайта. Еще так можно управлять индексацией картинок.