Как посмотреть вторую страницу (после страницы входа) в google analitics?
Задача стоит в следующем:
Нужно посмотреть вторую страницу, на которую перешел пользователь , попав на главную страницу.
С органического поиска.
Посмотреть нужно на мобильном и декстопном трафике.
- Вопрос задан более трёх лет назад
- 2424 просмотра
Комментировать
Решения вопроса 0
Ответы на вопрос 1
Веб-разработка и Реклама
Используйте Карту поведения (Поведение -> Карта поведения). Настройте сегменты по мобильному трафику с органического поиска и по десктопному аналогично.
Ответ написан более трёх лет назад
Кирилл @Rasto14889 Автор вопроса
Пробовал, аналитикс пишет, что «сегмент содержит ограничения, которые нельзя применить к этому отчету».
Даже если просто в сегменте выбираешь Канал: «organic» без иных условий и т.п.
Ваш ответ на вопрос
Войдите, чтобы написать ответ
- Поисковая оптимизация
Что за ошибка при установке запуске Google Index API?
- 1 подписчик
- 18 часов назад
- 15 просмотров
Вторая страница Гугла
Вторая страница Гугла (Google page two) – серия мемов, сравнивающих результаты выдачи на первой и второй страницах Гугла. Вторая страница, как правило, показывает что-то странное и опасное и частенько позиционируется хуже результатов Dark Web.
Происхождение
15 сентября 2019 года реддитор ExceedinglyGayRoach опубликовал инфографику в виде айсберга. На картинке вторая страница Гугла находится ниже, чем Dark Web.
Через несколько дней реддитор firetti добавил к изображению еще более зловещую картинку. Она символизировала выдачу поисковика Bing.
На основе этих постов в конце сентября сложился новый формат мемов. В них сравниваются результаты выдачи Google на первой и второй страницах.
Значение
Мемы про первую и вторую страницу Гугла иронично описывают результаты, которые выдает поисковик. Как правило, на второй странице нет ничего полезного. Напротив, там можно найти более опасный и страшный контент, чем в “темном интернете”.
Шаблон
Читайте также
Wi-Fi теряет одну полоску сигнала
Галерея
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.
Вторая страница Гугла
Вторая страница Гугла (Google page two) — серия мемов, сравнивающих результаты выдачи на первой и второй страницах Гугла. Вторая страница, как правило, показывает что-то странное и опасное и частенько позиционируется хуже результатов Dark Web.
Происхождение
15 сентября 2019 года реддитор ExceedinglyGayRoach опубликовал инфографику в виде айсберга. На картинке вторая страница Гугла находится ниже, чем Dark Web.
Через несколько дней реддитор firetti добавил к изображению еще более зловещую картинку. Она символизировала выдачу поисковика Bing.
На основе этих постов в конце сентября сложился новый формат мемов. В них сравниваются результаты выдачи Google на первой и второй страницах.
Значение
Мемы про первую и вторую страницу Гугла иронично описывают результаты, которые выдает поисковик. Как правило, на второй странице нет ничего полезного. Напротив, там можно найти более опасный и страшный контент, чем в «темном интернете».
Вторая страница! После седьмой Вам ответит сам Бог!
ничего там нет 🙁
раскрыть ветку
10 лет назад
Неистово плюсую!))
10 лет назад
что за фигня? я часто перехожу на вторую и третью. иногда до пятой дохожу.
раскрыть ветку
10 лет назад
когда сдаёшь лабы на физ-техе, то и на 30-й ничего не находит
Похожие посты
12 дней назад
Как нейросети постепенно засрут интернет (а точнее уже засрали)
Год назад я наткнулся на статью, которая предсказывала деградацию нейросетей и автор приводил интересную теорию:
● Нейросети обучаются на контенте из интернета, который по большей части делает человек.
● Качество итоговой работы нейросети на данный момент ниже, чем оригинальный контент живого автора. Логические и смысловые ошибки, а так же некое «отсутствие души».
● Несмотря на это, нейросети массово используют для создания контента. Растет количество некачественных материалов в интернете и нейросеть начинает брать эти данные для обучения.
● Из-за общего снижения качества «скармливаемой» информации, нейросеть начинает тупить, все чаще повторяя свои же ошибки и неточности.
Вот недавно я решил поиграть в Kenshi, вспомнить лор и почитать информацию о фракциях. И первая же статья которую мне выдает поиск Яндекса выглядит так:
▸ Я может быть какое то обновление пропустил, но про «Сеть» в Кенши не слыхал
Увидев этот странный текст, я из интереса перешел по ссылке, а там безумие в чистом виде!
▸ Даже в Kenshi есть свой филиал «Без баб»
▸ А как вам такое? Холодные осадки в Kenshi осознали себя и из погодных условий превратились во фракцию
▸ А Шеки решили позабыть свой культ битвы и стать торговцами тех-охотниками
Для тех кто еще не понял — эта статья написана нейросетями!
Написана убого, коряво, без намека на логику, но с нужными SEO элементами — тот самый информационный мусор. А самое забавное, что мусор вынесен на первую позицию поисковой выдачи Яндекса. Да что там, 5 из 15 ссылок на первой странице поиска вели на такие же плоды нейросетей разной степени бредовости.
И в этом ключевая проблема нейросетей — слишком высокая скорость генерации контента. Она априори будет выше, чем создание уникального контента от живого автора. Ужасное качество итогового продукта меркнет на фоне человеческой жадности и лени.
Какая задача у информационного контента в 21 веке? Решить проблему пользователя? Нет — привлечь трафик и желательно здесь и сейчас, ведь трафик это деньги. Поэтому количество такого контента будет расти в геометрической прогрессии.
Масштаб проблемы и как она будет решаться в будущем?
На мой взгляд ключевой момент — это умение отличать материалы живого человека и материалы сделанные нейросетью. И я говорю даже не про умение пользователя, а про умение машинных систем.
● Для самих нейросетей встает вопрос обучения. Chat-GPT потребляет информацию из интернета и недавно с него сняли ограничения 2021 года (все что вышло позже этой даты нейросеть не учитывала). Если на системном уровне не будет фильтра, то в обозримом будущем качество ответов заметно упадет, ведь они будут составляться на основе ошибочных материалов созданных нейросетью до этого.
● Google, Яндекс и другие поисковики в какой то момент столкнутся с недоверием аудитории, ведь перестанут решать основную задачу пользователя — поиск полезной информации. Пока что их инструменты оценки качества контента слишком примитивны, что доказывает пример приведенный в начале статьи (1/3 выдачи поиска загажена мусором нейросетей). Единственный возможный критерий отбора доступный в данной ситуации — отдавать приоритет оригинальным статьям от живого автора.
А что в итоге?
Я пишу эту статью для того, чтобы люди более критично относились к информации в интернете и поддерживали живых авторов. Экспертного контента в сети все меньше и нельзя позволить ему утонуть под лавиной бреда нейросетей. В конце концов за ошибкой человека стоит мыслительный процесс, а за ошибкой нейросети — случайный алгоритм. И пока что к человеку доверия больше, чем к машине.
Ждем, когда техно-жрецы найдут решение этой проблемы и оно вскроет еще десяток других. А пока подписывайся на мой гоблинский блог — тут много интересного про разработку игр и нейросети.
P.S. По поводу моего месячного отсутствия. Несмотря на навалившийся ворох дел — я не забрасывал изучение инструментов для разработки игр. Просто написание статьей не вписывалось в мое плотное расписание. В ближайшие пару недель постараюсь выложить новую статью про Godot.