Обнаружилась проблема, страница существует и визуально нормально отображается, а вот поисковый робот не может ее прочесть (просканировать). Странно, но так бывает.
При проведении первичного аудита сайта при помощи Screaming Frog и Serpstat, проблема не была обнаружена, но поисковая консоль на глазах показывает значительное падение трафика, при этом исключается вариант наложение санкций или фильтров.
Раз впервые проблема была обнаружена в Search Console, то и отталкиваемся от нее. Выбираем любую страницу, исключенную из индекса, и страницу, которая ещё в нём присутствует, и проверяем их с помощью оператора «cache:». Оказывается, обе страницы имеют 404 ответ от webcache.googleusercontent.com.
Возвращаемся в консоль и производим проверку этих двух URL, после изучаем просканированную страницу.
Как оказалось, проблема скрывалась в ресурсах страницы, из 50 единиц подгружалось только 2 (на скрине проблема по большей части уже устранена).
Какова причина что так получилось, это уже индивидуальный вопрос. Нужно понять почему поисковая система не может загрузить остальные 48 ресурсов, потому что именно из-за этого страницы сайта стремительно начали выпадать из индекса.
Вот почему так важно следить за тем, как поисковый робот сканирует и видит сайт.