27 апр. 2007 г.

Веб-разработчики 2007

Все материалы (презентации и тезисы) прошедшей недавно конференции для веб-разработчиков РИТ 2007 доступны в разделе Программного комитета.

По мере появления свежих версий презентаций, текстов и видеоматериалов организаторы обещают публиковать их на странице соответствующего доклада. Также в этом разделе можно вступить в переписку с докладчиками, задать им уточняющие вопросы. Вообще энтузиасты не собираются останавливаться на достигнутом, планируют создать клуб профессионалов, которые будут обсуждать веб-образования, развития отрасли веб-разработок, изучать существующие западные наработки в плане методической основы веб-образования, популяризировать веб-стандарты, есть шанс, что появится больше качественных переводных книг-материалов и авторской документации для разработчиков.

С помощью новой пульс-игрушки от Яндекса можно получить график, иллюстрирующий интерес аудитории к конференции в сравнении с двумя другими мероприятиями, которые состоялись почти в то же время в Москве:
График
Пульс блогосферы за 2 месяца по запросам киб-2007, рит-2007 и риф-2007

Ярлыки: , ,

25 мая - бесплатный семинар по анализу, продвижению и управлению ресурсом

Дата: 25 мая 2007 г.
Время: 11:00-14:30
Место проведения: Москва, Зубарев пер., д.15, корп.1,
бизнес-центр «Чайка Плаза»

25 мая компании NetPromoter и UnMedia проведут бесплатный семинар серии "Анализ, продвижение и управление ресурсом в интернете". На семинаре будут рассмотрены вопросы продвижения сайтов в интернете, анализа аудитории сайта и оценки эффективности рекламных кампаний с помощью программных инструментов.
Всем участникам семинара будет предоставлена уникальная возможность получить бесплатный анализ собственного ресурса от компании NetPromoter, в котором будут рассмотрены основные недочеты вашего сайта, и обсудить их прямо на семинаре с ведущими специалистами в области SEO.

Сергей Баиров, исполнительный директор компании NetPromoter, откроет семинар вступительным словом «Кибермаркетинг. Успешное развитие ресурса», в котором расскажет о тенденциях развития Рунета, особенностях и возможностях Сети, а также о стратегиях продвижения ресурсов.

Николай Евдокимов, генеральный директор компании UnMedia, в рамках своего доклада «Поисковая оптимизация сайта: подходы, методы, решения» поделится основными секретами поисковой оптимизации, в том числе – оптимизации контентного наполнения, внутренней структуры сайта и HTML-кода сайта.

В докладе "Поисковое продвижение ресурсов на базе продуктов компании NetPromoter" SEO-аудитора Армэна Бегларяна будут рассмотрены вопросы анализа, поискового продвижения и мониторинга ресурса на основе сайтов участников семинара, а также приведены практические примеры решения данных задач с помощью инструментов компании NetPromoter.

Приглашаем на семинар всех, кто столкнулся с задачами продвижения ресурса в интернете и зинтересован в получении информации о программных продуктах компании NetPromoter.

Регистрация участников семинара

Для участия в семинаре необходимо заполнить регистрационную форму: http://netpromoter.ru/education/seminars/2007_05/anketa.htm


Более подробная информация о семинаре доступна на сайте http://netpromoter.ru/education/seminars/2007_05/index.htm

Информация о компании:
NetPromoter - инновационная технологическая компания-разработчик программных решений в области кибермаркетинга.

Компания основана в 1999 году и специализируется на разработке индивидуальных решений в области продвижения, мониторинга и анализа ресурса. За время существования компании был накоплен огромный опыт работы, результатом которого стало создание комплекса программного обеспечения и услуг Page Promoter.

Контактная информация:
Наталия Погорела,
промоменеджер http://netpromoter.ru
conference@netpromoter.ru

Ярлыки: , ,

Результаты второго исследования контекстной рекламы

Специально для Конференции Интернет и Бизнес 2007 (КИБ) аналитиками агентства Артон Консалтинг было проведено повторное исследование контекстной рекламы. В выборку попали коммерческие структурам занятые в области недвижимости и продаж автомобилей в Москве и Московской области.

Важно отметить, что тенденции, отраженные в исследовании характерны не только для указанной выборки, но и для большинства пользователей систем контекстной рекламы в Рунете.

Доля поисковой рекламы снижается

В Бегуне доля поисковой рекламы опустилась до 36% (была 48%).
В Яндекс.Директе доля поисковой рекламы составляет 67% (включая Яндекс.Поиск, Mail.ru-поиск, поиск по Яндекс.Каталог и другие страницы с поисковой выдачей).

За прошедший год Бегун расширил свой инструментарий за счет технологий близких к поведенческому таргетингу. Таким образом на сегодняшний день контекстная реклама состоит из трех основных частей:

  • поисковая реклама (реклама под запрос ключевого слова)
  • реклама по теме страницы (наличие купленного слова в тексте страницы)
  • использование баз данных с информацией о пользователях (поведенческий таргетинг)

Важно отметить, что качество аудитории поисковой рекламы в среднем лишь незначительно лучше, чем у прочих составляющих контекстной рекламы.

Качество аудитории Яндекс.Директа выше, чем у Бегуна

В среднем на 15% больше посетителей смотрели 4 и более страниц на сайте (глубина просмотра 4+ страницы)

В среднем на 3,5% больше посетителей возвращалось на сайт в один из последующих дней после первого посещения (возвраты 2+ дня)

По мнению руководителя направления контекстной рекламы Артон Консалтинг Дениса Корнеева: "Счет в пользу Директа отнюдь не разгромный. Бегун определенно стоит использовать для достижения большего охвата аудитории. При этом стоимость за качественного посетителя с большой вероятностью будет достаточно близка."

Существенное расширение рекламных сетей

  • Доля Яндекс.Поиска в трафике Яндекс.Директа снизилась до 54% (годом ранее было 73%).
  • Доля Рамблера (поиск) в трафике Бегуна сократилась более чем вдвое до 14% (было 30%).
  • На этом фоне выделяется Mail.ru - это единственный портал, который увеличил свою долю в трафике контекстной рекламы (для Яндекс.Директа с 4% до 6%). На сегодняшний день Mail.ru является участником обеих лидирующих систем контекстной рекламы.

Одним из основных следствий расширения рекламных сетей является повышение посещаемости с тематических сайтов для рекламируемых отраслей.

Контекстная реклама - это не самое лучшее, что есть на сегодняшний день

В этом году мы решили уточнить сравнение контекстной рекламы и условно-бесплатного поискового трафика. Под поисковым трафиком понимались все люди, пришедшие на сайты из результатов поиска со следующими особенностями:

  • не засчитывались оплаченные переходы с контекстных объявлений
  • засчитывались результаты оптимизации сайтов (т.к. их выделить весьма сложно)
  • засчитывались только переходы по словам, имеющим отношение к тематике сайта (т.е. только ключевые запросы)

В результате анализа статистики выяснилось, что такой поисковый трафик в среднем на 11% лучше контекстной рекламы по показателю глубина просмотра (4 и более страниц).

Если сравнить качество аудитории медийной и контекстной рекламы по глубине просмотра посетителями страниц рекламируемых сайтов, то преимущество контекстной рекламы составит в среднем 13%.

Вот как комментирует полученные результаты Генеральный директор Артон Консалтинг Михаил Труфанов: "Более высокое качество аудитории с контекстной рекламы обусловлено тем, что мы работаем с людьми, проявившими явный интерес к рекламируемому продукту. Но, медийная реклама позволяет значительно увеличить охват аудитории и, как результат, значительно увеличить продажи. Стоимость привлечения клиента средствами медийной рекламы в интернете в большинстве случаем значительно ниже того же показателя в традиционных медиа."

Контакты:
Трубицына Александра
Телефон: (495) 623 31 46
e-mail: at@arton.ru
URL: http://seminar.arton.ru

Ярлыки: , ,

Компания «Караван» провела исследование рынка выделенных серверов

Телекоммуникационная компания "Караван" провела исследование рынка выделенных серверов. Согласно полученным данным, наиболее активные пользователи услуги colocation/dedicated отрасли, напрямую связанные с рекламной деятельностью (19 рынка) и продажей через интернет (15). Следом за ними идут компании, поставляющие товары (13).

По оценке экспертов компании "Караван", рынок выделенных серверов в ближайшие 3-5 лет будет иметь стабильные темпы роста. Соотношение востребованности услуг colocation и dedicated (на текущий период - 49 и 51 соответственно) будет расти в пользу увеличения последнего. При этом ожидается более стремительное развитие услуги dedicated с администрированием. Это связано с потребностью заказчиков передать максимальный объем IT-задач на стороннее обслуживание.

Уважаемые коллеги, для ознакомления с развернутым аналитическим отчетом по рынку выделенных серверов обращайтесь в отдел маркетинга компании "Караван".

Sincerelly, NunDesign

22 апр. 2007 г.

Для Дигга стараюсь

Сорри всем, это здесь такая тестовая запись для идентификации блога в Digg.
Если кому интересно - есть я там вот такая.
Нужно мне сие потребство или нет - покажет время.
Если у кого-то есть опыт как обратить дигг себе и своим проектам в великую пользу - велкам.
Sincerelly, NunDesign

20 апр. 2007 г.

Рынок цифрового контента растет как на дрожжах

Рынок создания цифрового контента сейчас переживает большой подъем. По данным Jon Peddie Research, в 2006 году он вырос на 16%, перебравшись с отметки 2,6 млрд. $ на более 3 млрд. $. В будущем следует ожидать активного развития видео-сервисов и технологий типа AJAX.

По данным Jon Peddie Research, к 2012 году рынок цифрового контента достигнет отметки в 4,9 млрд. $ при ежегодном росте на 10%. "Мы предвидим большие изменения в этой сфере. Многое изменилось после покупки компанией Adobe компаний Macromedia и Serious Magic, Autodesk - компаний Alias и Colorfont, а Google - компаний Sketchup и YouTube. Все меняется прямо на глазах, и это хорошо. А компаниям нужно учиться быстро реагировать на происходящие на рынке изменения, учиться адаптироваться", - говорит Кэтлин Мейхер, главный аналитик Jon Peddie Research.

В этой сфере для развития пользовательского контента и профессиональных продуктов скрыты огромные перспективы. Однако в сфере развития фото контента могут возникнуть некоторые трудности. Сейчас, когда все больше развивается рынок цифровых фотокамер, увеличивается и потенциал развития цифрового фото и видео контента. Что касается цифрового фото, сейчас существуют множество бесплатных программ для редактирования на элементарном уровне (корректировка, нарезка, отправка по электронной почте). С видео все намного сложнее, ведь создание и редактирование видео контента нельзя свести к нескольким простым шагам. Сейчас появление различных медиаплееров, а также сервисов вроде YouTube и MySpace подогревают интерес пользователей к созданию собственного видео контента. Однако существует вероятность, что в будущем средства мгновенного редактирования видео помешают развитию рынка профессиональных программ для редактирования видео контента.

Профессиональный рынок все больше переключается на развитие экранной интерактивной среды. Многие компании, продающие профессиональные программы для создания цифрового контента, пытаются сохранить эту тенденцию, т.к. при этом снижаются цены на программные средства, ими становится легче пользоваться, и, следовательно, все больше пользователей с ними работает.

По материалам DigiTimes.

Источник: @Astera - www.astera.ru

Ярлыки: , , , , ,

17 апр. 2007 г.

Кого посчитал «Рейтинг ведущих веб-студий Рунета»?

RuNet-web-studies

Кого посчитал «Рейтинг ведущих веб-студий Рунета»?

Выбирая партнера для разработки интернет-проектов, компании ориентируются на известность студии, анализируют ее работы, проводят тендеры. "Рейтинг TOP-100 ведущих веб-студий Рунета 2007", уже второй год проводимый экспертной группой TagLine, призван был стать одним из важных аргументов в пользу того или иного разработчика. Однако анализ результатов исследования показал, что для правильной оценки работы студии недостаточно мнения экспертов.

На прошлой неделе состоялось подведение итогов исследования рынка разработки сайтов, в результате которого был сформирован "Рейтинг TOP-100 ведущих веб-студий Рунета 2007". В рейтинге участвовали более трехсот веб-студий Россий и ближнего зарубежья.

Пятерка лидеров осталась неизменной с прошлого года: лидирует в рейтинге Студия Артемия Лебедева, второе почетное место занимает Actis Systems, практически поделив между собой третье и четвертое места занимают РБК Софт и Defa gruppe, замыкает первую пятерку с большим отрывом от ближайших конкурентов компания АDV/web-engineering.

Результаты исследования, как и его методология, вызвали неоднозначную оценку у участников опроса. По мнению некоторых экспертов, те студии, которые хотя бы в минимальном объеме занимаются собственным продвижением, получили значительное преимущество по сравнению с не менее успешными, но более "закрытыми" web-студиями. Победа студии Артема Лебедева вполне закономерна, но во многом является результатом многолетней
PR-работы. По словам Виктора Щеблецова, руководителя Интернет-отдела компании «МИЭЛЬ» и эксперта данного рейтинга, «лидерство первой четверки не нуждается ни в рейтинге, ни в комментариях - это давление объема и PR, а пятое место, также как и следующие 20, является весьма спорным результатом».

При том, что сама идея составления подобного рейтинга давно назрела и является весьма актуальной и востребованной (за что мы весьма благодарны Андрею Терехову, лидеру проекта), серьезную критику вызвала форма его реализации. Сведение всех оценок в одну нивелирует такие разнофакторные показатели, как креатив, качество, цена, поддержка, сроки, технологические инновации. В итоге, основная масса рейтинга смешалась в неразличимую группу и никак не помогает сориентироваться потенциальному заказчику.


Суть высказываний большинства экспертов, участвовавших в голосовании, среди которых такие известные персоны рынка, как Михаил Козлов (Ашманов и партнеры), Сергей Рыжиков (Битрикс), Дмитрий Малявкин (Артон консалтинг), а также самих лидеров ТОП10 заключается в том, что при данной методике ранжирования, уместней было бы выделить основные группы (например, «лидеры», «бренды», «профессионалы», «аутсайдеры»). Это дало бы очень грубую, но реальную картину, не замутненную статистическими погрешностями.


К примеру, в банковской отрасли составление рейтингов имеет под собой четкую и прозрачную основу. Невозможно представить себе рейтинг «ТОП-100 ведущих банков России» без его составляющих в виде частных рейтингов «Самые кредитные банки», «Самые клиентоориентированные банки», «Самые динамично растущие банки», «Самые ипотечные банки» и так далее.

Опасность разнесения по рангу объектов, практически не различающихся по качеству, грозит превратить любой рейтинг в соревнование нездоровых амбиций, а в конечном итоге, к деградации рейтинга, что и произошло, например, с «Рамблер ТОП100», чей неуклонный закат сегодня все наблюдают.


Как отметил Виктор Щеблецов, «Топ-100» пока не отражает реальной картины рынка. «Данный рейтинг не позволяет увидеть "слабые сигналы рынка", его периферию, выделить интересные находки, возможно не получившие широкой огласки, что и является наиболее интересным для потребителя». Единственную практически полезную информацию дает перечень тех студий, которые не попали в рейтинг, так как «он помогает потребителю узнать, что за красивой вывеской больше никто не живет», - уточняет эксперт.


Чтобы сделать рейтинг действительно полезным и значимым для его конечных потребителей, а это, прежде всего сектор B2B, необходимо основывать его на объективных критериях и на оценках заказчиков, а в идеале, и конечных клиентов, которые посещают созданные студиями сайты. «Моей компании, как крупному покупателю веб-услуг, говорит Виктор Щеблецов, было бы очень интересно посмотреть баллы и отзывы реально обслуженных студией клиентов и посетителей сайтов. Надеюсь, мы доживем до времен, когда найдутся энтузиасты для такой работы».

За дополнительной информацией обращайтесь, пожалуйста:
Олеся Кошкина
руководитель пресс-службы
"МИЭЛЬ-Недвижимость"
777-88-83 доб. 76-58
koshkina@miel.ru

16 апр. 2007 г.

Web 3.0 наступает на пятки Web 2.0

В самый разгар выставки Web 2.0 Expo 2007 на авансцену выходит Web 3.0. В понедельник производители инструментов программирования, компании TopQuadrant и Franz планируют анонсировать среду разработки и базу данных для семантического веба, которые позволят сделать компьютеры чуточку смышленее.

Большинству людей сочетание TopQuadrant TopBraid Composer и базы данных Franz AllegoGraph 64-bit RDF Store ни о чем не говорит. Но смысл — это именно то, что собираются предложить две компании. Семантический веб — это попытка сделать онлайновые документы и данные более понятными для компьютеров. Он особенно актуален для крупных организаций, которым приходится соединять большие наборы данных. Например, при слиянии двух баз данных по учету кадров, одна из которых содержит только штатных сотрудников, а другая — временных или на неполный рабочий день, могут возникнуть серьезные проблемы.

Семантическая технология полезна и для поисковых приложений, так как позволяет делать выводы о неявно выраженных отношениях между элементами данных. Так, поиск по ключевым словам обычно выдает только те документы, которые просто содержат искомый термин. Семантический же поиск позволит искать документы, содержащие этот термин в определенном значении (например, военные танки, а не емкости для воды), а также его синонимы (например, бронированные машины).

Семантического веба, который обычно относят к подмножеству веб-технологий следующего поколения, называемых Web 3.0, по сути, еще не существует — за отсутствием серьезных инструментов для решения подобных задач. В крупных организациях семантические приложения применяются, но это специальные разработки, требующие больших усилий. Например, в разведке семантическая технология используется для выявления связей между людьми при борьбе с терроризмом. Вся информация о террористах хранится в трехуровневой системе Resource Description Framework (RDF), построенной на стандартной базе данных. Для управления сложным процессом обработки этих данных системе требуется 22 Тбайт оперативной памяти, и работает она нестабильно, а на восстановление системы после сбоя уходит неделя. Такое решение практичным не назовешь — нужна стабильная трехуровневая база данных.

Уже созданы спецификации, протоколы и языки для семантического веба, в том числе RDF, OWL Web Ontology Language и SPARQL, а также родственные технологии, такие как XML. Весь этот набор букв позволяет разработчикам организовать данные в семантическую структуру. А комбинация TopQuadrant/Franz добавляет к этому графическую среду разработки приложений семантического веба и масштабируемую базу данных, способную работать с RDF большого объема.

Компания Eastman Kodak разрабатывает с помощью AllegroGraph семантическую технологию, которая поможет ее заказчикам справляться со все более неуправляемыми коллекциями цифровых фотографий. Она пытается извлекать смысл из визуальных данных. В январе 2006 года на выставке Consumer Electronics Show генеральный директор Kodak Антонио Перес рассказал о том, как его компания собирается использовать семантическую технологию: «Понимание смысла снимает препятствия, стоявшие между потребителями и их желанием рассказать о себе как можно больше. Благодаря этой технологии фотографии начинают узнавать друг друга — без вмешательства человека фотография будет использовать свои метаданные для поиска других фотографий, и все они станут объединяться по смыслу в новые группы».

Источники и ссылки по теме

10 апр. 2007 г.

Релевантность. В поисках соответствия

Релевантность (англ. relevant) — применительно к результатам работы поисковой системы.
— степень соответствия запроса и найденного, уместность результата.

Это субъективное понятие…

«Википедия»

«Отсортировано по релевантности» – как много в этой фразе… для простого веб-мастера. Релевантность сайта, релевантность выдачи поисковой машины, оценка релевантности, увеличение релевантности – всё суть, чаяния и головная боль любого, кто связан с продвижением сайта в Сети.

«При поиске в Интернет важны две составляющие – полнота (ничего не потеряно) и точность (не найдено ничего лишнего). Обычно это все называют одним словом – релевантность, то есть соответствие ответа вопросу» – говорит нам Яндекс. «Хорошо, и где же критерии?» – спрашиваете вы. Критерии – это камень преткновения между поисковыми системами, пользователями и оптимизаторами.
В чем же, собственно, проблема?

Суета вокруг релевантности

Стремительное и бесконтрольное разрастание всемирной паутины автоматически отвело Поисковым Машинам заглавную роль в виртуальном мире. Для любого сайта поисковые машины это фактически окошки в виртуальный мир, универсальная и наиболее действенная рекламная площадка. Именно поэтому на этой площадке развертываются самые «кровавые» бои оптимизаторов за Всемирную известность собственных веб-ресурсов.

Работая над основной своей задачей – точностью поисковой выдачи – поисковые машины были вынуждены разрабатывать и совершенствовать критерии релевантности. Основой стали так называемые «внутренние» критерии – плотность ключевых слов на странице, объем содержания, текст заголовков и многое другое. Однако после того как в Интернете появились так называемые дорвей-страницы, создаваемые исключительно с целью всеми правдами и неправдами поднять рейтинг сайта, появилась и насущная потребность в разработке «внешних» критериев релевантности.

Принцип цитируемости

В основу внешних критериев релевантности лег давно известный и широко применимый в мире «принцип цитируемости», который также называют ссылочной цитируемостью или ссылочной популярностью. Данный принцип подразумевает, что релевантность сайта должна определяться его популярностью в виртуальном мире – тем, как и сколько на него ссылаются другие сайты. Вполне разумное решение – чем больше сайтов рекомендуют посетителям зайти на чей-то ресурс, тем более высокую оценку получает он от поисковой машины (когда в тексте ссылки есть искомый термин, конечно). На лицо повышение качества поиска.

Оптимизаторы vs. поисковые машины

Изначально поисковые машины, учитывая популярность ссылок, считали количество ссылающихся сайтов или страниц, выводя самую простую закономерность – чем больше таких страниц существует, тем популярнее и важнее сайт. Однако, по мере того, как борьба за первые места в выдаче поисковиков ужесточалась, все более давало себя знать желание раскрутчиков сайтов обмануть поисковую машину. Для начала появилось множество специальных сайтов, так называемых «ферм ссылок» или «FFA (Free for All)», на которых любой веб-мастер мог бесплатно разместить ссылку на свой сайт. Такая методика искусственного повышения популярности ссылок некоторое время вполне работала. Однако очень быстро популярность FFA сыграла с раскручиваемыми сайтами нехорошую шутку: появились автоматические программы, которые одновременно регистрировали ссылку на тысячах «ферм». FFA-сайты, как правило, работали по принципу конвейера – новые ссылки вытесняли старые в низ страницы. Поскольку количество ссылок на странице ограничено, а скорость продвижения по мере автоматизации увеличилась до нескольких сотен ссылок в час, то, собственно, время присутствия вашей ссылки в «нужном месте» сводилось буквально до пары минут. Времени, a priori, недостаточном для индексации ссылки поисковой машиной. Таким образом порочная система изжила сама себя. Тем не менее проблема осталась. И поисковые сайты были вынуждены обратить внимание не только на количество, но и на качество ссылок.

Google Page Rank…

У истоков нового алгоритма ранжирования первым оказался Google. Он ввел понятие «случайного сёрфера» – то есть абстрактного человека, который бродит по Сети, переходя с ссылки на ссылку и просматривая все новые и новые страницы. Смысл нового алгоритма, получившего название Page Rank, сводился к попытке оценивать каждый документ с учетом его веса в среде всех других проиндексированных документов сети, ссылающихся на оцениваемый. То есть, по сути, Page Rank – это попытка поисковой машины предсказать и использовать в качестве критерия вероятность того, что случайный пользователь попадет на ту или иную страницу. Несомненно, что данная система оценки релевантности выглядит гораздо более «помехоустойчивой», а, значит, максимально полезной для пользователей поисковых машин и минимально пригодной для искусственной накрутки популярности веб-ресурсов.

Как работает данный алгоритм? Для начала ищутся все страницы, в которых есть слова из запроса пользователя поисковой машины. Найденные страницы ранжируются на основе «внутренних» критериев релевантности. Учитывается количество ссылок на сайт. Результаты корректируются с помощью Page Rank каждой страницы. Непосредственная формула для присвоения странице «разряда» (Rank) выглядит следующим образом:

R(A)= C*(R(B1)/N1+...+R(Bi)/Ni)

где:

R(A) – Page Rank страницы;
R(Bi) – Page Rank ссылающейся страницы Bi;
Ni – количество ссылок на странице B;
С – коэффициент сглаживания (затухания), используется для страницы или группы страниц. Препятствует «накрутке» Page Rank. Обычно равен 0,85.

Google ранжирует значение PR от 0 до 10. При этом связь значения PR, которую показывает Google ToolBar (специальный сервис Google, отображающий PR страницы) и абсолютного значения имеет следующий вид:

Абсолютное значение
(Диапазон)

Значение PR
1-101
10-1002
100-10003
1000-100004
и т.д.

Из этой зависимости очевидно следующее: увеличить значение PR с 1 до 2, будет существенно легче, чем, к примеру, с 6 до 7. Англоязычные сайты средней раскрученности дают PR на уровне 4-5. Если данный критерий выше 6 – ресурс можно считать очень хорошо раскрученным. Более высокое значение PR – задача, решение которой под силу крупным мировым корпорациям. Тот же Google или Microsoft. Одни из самых популярных российских веб-ресурсов, такие, как Rambler или Lenta.ru демонстрируют значение Page Rank, равное 7-8.

Теоретически можно предположить, что создание n-го количества страниц и проставление на них ссылки на одну может обеспечить ей хорошее значение цитируемости. Однако на практике реализация данной идеи требует значительно больше времени, чем увеличение PR с помощью внешних ссылок.

В целом, идея подобного алгоритма оказалась весьма удачной и, со временем, ноу-хау Google переняли большинство поисковых систем.

…и Яндекс тИЦ

Но, несмотря на свою заслуженную популярность, формула Page Rank никак не учитывала «вес» ссылок, то есть их качественную характеристику. Именно поэтому Яндекс разработал собственный алгоритм учета внешних ссылок.

Тематический индекс цитирования (тИЦ) в поисковой системе Яндекс был создан, чтобы определять релевантность веб-ресурсов в Яндекс.Каталоге, принимая во внимание качество ссылок на них с других сайтов. Качество ссылки или её «вес» рассчитывались по специально разработанному алгоритму, учитывающему, в первую очередь, количество ссылок и тематическую близость ссылающихся на ресурс сайтов. При этом, однако, ссылки с иностранных ресурсов Яндексом были полностью проигнорированы. С учетом того, что сайтов не .ru и не .su в мире более, чем достаточно, погрешность окончательных расчетов может быть весьма значима для пользователя. С другой стороны, наличие Вашего сайта в западных каталогах, даже очень популярных, никак не поможет увеличить тИЦ.

Что касается оценки тематической близости ссылающихся сайтов, то Яндекс определяет схожесть тематики по расположению ресурсов в собственном каталоге. Для сайтов, не входящих в каталог, применяются другие технологии.

тИЦ можно посмотреть с помощью различных сервисов, один из самых распространенных в России – Page Promoter Bar. Однако, тИЦ не является критерием релевантности поисковой выдачи Яндекса. Только для сортировки собственного каталога! Для поисковой системы высчитывается уже другой индекс – так называемый вИЦ (взвешенный индекс цитирования). Который, увы, обычным пользователям недоступен. Поэтому всем заинтересованным степень «раскрученности» сайта приходится приблизительно оценивать по тИЦ.

Закрытый алгоритм

Итак. Заявленные формулы успеха (релевантности), находящиеся в открытом доступе для оптимизаторов веб-ресурсов, на самом деле недостаточно полны, чтобы уповать на них в реальной «борьбе» за популярность своего сайта. В то же время, как мы уже говорили, усложнение исходных алгоритмов поисковых машин отчасти провоцируют сами оптимизаторы. Разработчики поисковых машин вынуждены балансировать между попыткой найти факторы, которые трудно «накрутить», но при этом достаточные и оптимальные, чтобы справляться с основной задачей – адекватно оценивать релевантность сайтов.

Ссылочное ранжирование в этом смысле весьма перспективно. Но, несомненно и то, что поисковые машины будут усложнять алгоритмы поиска и анализа ссылок (а также вводить в обиход и новые критерии, например, TrustRank). Более того, все нюансы алгоритмов будут продолжать держать в тайне от общественности, дабы избежать «злоупотреблений» со стороны оптимизаторов.

Подтверждением этому служит уже упомянутый взвешенный индекс цитирования Яндекса. Полностью параметры, которые учитывает Яндекс при расчете вИЦ, не известны. Однако эксперименты показывают, что, кроме количества ссылок и тематической близости сайтов, на результат поиска также влияют и расположение ссылки (главная страница или подраздел) и якорный текст. Кроме того, Яндекс из расчета индекса исключает ссылки, расположенные на досках объявлений, форумах, блогах, «фермах» и сайтах, расположенных на бесплатных хостингах. Еще более загадочен алгоритм Rambler. Предполагают, что Rambler большой вес придает собственному рейтингу, а также, возможно, использует некий фильтр ссылок, для оценки их количества и даты появления. Помимо этого, данный поисковик «не любит», когда количество ссылок на сайт вдруг резко увеличивается, правомерно подозревая, что имеет дело с «незаконной» накруткой. Что касается первооснователя принципа цитируемости Google, то недавно один из его разработчиков признался, что фактор Page Rank при ранжировании страниц учитывается все меньше и меньше, поскольку в настоящее время добавились сотни других критериев. В том числе оценка текстов ссылок и текстов сайтов. Сотни критериев упомянуты, скорее всего, чтобы окончательно деморализовать оптимизаторов и отбить у них всякую охоту искусственно продвигать свои сайты. На самом деле, как отметил в одном из своих интервью основатель и технический директор компании «Яндекс» Илья Сегалович – поисковые машины, разрабатывая свои алгоритмы, учитывают не так много факторов, как думают оптимизаторы. Однако «вес» каждого параметра постоянно меняется.

Может ли оптимизатор в условиях постоянно обновляющихся и меняющихся алгоритмов поисковых машин достичь стабильного успеха в раскрутке веб-ресурса? Что для этого надо сделать? Об этом, и о путях решения многих насущных проблем SEO-продвижения, можно подробнее узнать на бесплатных семинарах серии "Анализ, продвижение и управление ресурсом в интернете". Данные семинары проводят ведущие специалисты в области кибермаркетинга компаний NetPromoter и UnMedia. Ближайший семинар состоится 19 апреля в Москве.

Ирина Евдокимова

19 апреля - бесплатный семинар по анализу, продвижению и управлению ресурсом

Дата: 19 апреля 2007 г.
Время: 11:00-14:30
Место проведения: Москва, Зубарев пер., д.15, корп.1,
бизнес-центр «Чайка Плаза»


19 апреля компании NetPromoter и UnMedia проведут бесплатный семинар серии "Анализ, продвижение и управление ресурсом в интернете". На семинаре будут рассмотрены вопросы продвижения сайтов в интернете, анализа аудитории сайта и оценки эффективности рекламных кампаний с помощью программных инструментов.

Всем участникам семинара будет предоставлена уникальная возможность получить бесплатный анализ собственного ресурса от компании NetPromoter, в котором будут рассмотрены основные недочеты вашего сайта, и обсудить их прямо на семинаре с ведущими специалистами в области SEO.


Сергей Баиров, исполнительный директор компании NetPromoter, откроет семинар вступительным словом «Кибермаркетинг. Успешное развитие ресурса», в котором расскажет о тенденциях развития Рунета, особенностях и возможностях Сети, а также о стратегиях продвижения ресурсов.


Николай Евдокимов, генеральный директор компании UnMedia, в рамках своего доклада «Поисковая оптимизация сайта: внутренние факторы» поделится основными секретами поисковой оптимизации, в том числе – оптимизации контентного наполнения, внутренней структуры сайта и HTML-кода сайта.


В докладе "Поисковое продвижение ресурсов на базе продуктов компании NetPromoter" Дениса Кравченко, SEO-аудитора компании NetPromoter, будут рассмотрены вопросы анализа, поискового продвижения и мониторинга ресурса на основе сайтов участников семинара, а также приведены практические примеры решения данных задач с помощью инструментов компании NetPromoter.


Приглашаем на семинар всех, кто столкнулся с задачами продвижения ресурса в интернете и зинтересован в получении информации о программных продуктах компании NetPromoter.


Регистрация участников семинара


Для участия в семинаре необходимо заполнить регистрационную форму: http://netpromoter.ru/education/seminars/2007_04/anketa.htm


Более подробная информация о семинаре доступна на сайте http://netpromoter.ru/education/seminars/2007_04/index.htm


Информация о компании:

NetPromoter - инновационная технологическая компания-разработчик программных решений в области кибермаркетинга.

Компания основана в 1999 году и специализируется на разработке индивидуальных решений в области продвижения, мониторинга и анализа ресурса. За время существования компании был накоплен огромный опыт работы, результатом которого стало создание комплекса программного обеспечения и услуг Page Promoter.


Контактная информация:

Наталия Погорела,

промоменеджер http://netpromoter.ru

conference@netpromoter.ru

5 апр. 2007 г.

11 Ways To Drive Traffi'c Away From Your Website

Why Web-Users Are So Impatient

While watching a Toronto Raptor basketball game I saw T.J. Ford, one of the fastest players in the league, rush down the court like a man possessed and proceed to throw the ball behind his back to a trailing Andrea Bargnani. The trouble was the ball sailed over the head of the seven-foot Bargnani into the second row of seats. Ford, himself, ended up with a beer and popcorn faci'al after landing in the lap of a front row patron. So what does this have to do with website design and marketing you ask? A lot.

As talented as Ford is as a basketball player he sometimes plays out-of-control, and his major asset, his speed, becomes a liability. When this happens in a basketball game the answer is to slow the game down and get back in control.

Don't Speed-It-Up; Slow-It-Down

Website visitors are like the speedy T.J. Ford; they are so intent on getting what they want as quickly and efficiently as possible, that they often surf the Internet out-of-control.

How many times have you sat in front of the computer with your hand resting on your mouse searching for some desired product, service, or information, when all of sudden you find what looks like what you want, but before you even have a chance to discover exactly what it is, your hair-trigger finger decides it's time to move-on. It's like your finger has a mind of it's own.

Speed Kills Marketing Efforts

All the talk and discussion about short attention spans caused by people raised on video games and quick-cut-edited music videos is very misleading.

What website visitors won't tolerate are websites that waste their time, and many websites are guilty of exactly that. Contrary to popular belief, the job of a website designer, who understands marketing, is not to speed up website visitors, but to slow them down so they can absorb the marketing message.

If you want your audience to remember you, if you want to make an impression, if you want website visitors to understand why they should give you their business, then you have to slow them down long enough to absorb your message. And that message better be worth their while or they will neve"r come back.

It isn't about how fast a page loads; it's about delivering an appropriate payoff for the wait.

Now I will admit there are people who absolutely, positively will not wait more than eight seconds for anything to load. You know who you are. And I say, the hell with them. These are the same people who won't wait their turn in a brick and mortar store either, they demand to be served before everyone else - it's just not possible to satisfy these people, so why design your entire website marketing around them. They are neve"r going to hang around long enough to grasp your message and learn why they should be giving you their business, so forget about them.

The people you should be worrying about are the ones that really want to find out more about what it is you do, and are prepared to invest a little time and effort to give you a chance to explain yourself. These are the important people; this is your real audience, and you disappoint them at your financial peril.

The Reasons Why Web-users Are Impatient

The real reason website users are so damn impatient is not that they have such short attention spans, it's because most websites are designed to meet perceived company objectives, rather than audience needs.

How To Drive Traffi'c Away From Your Website

Let's take a look at some of the reasons why your website visitors may be leaving your website before they've had a chance to hear what you have to say; or to put it another way, if you want to drive traffi'c AWAY faster than you attract it, here are some of the things you should do.

1. Give Web-visitors Too Many Options and Choices

Social scientist and Swarthmore College professor, Barry Schwartz, has coined the phrase, "the paradox of choice." His studies have concluded the more choice you give people, the less likely they are to make a decision. Some choice is good, but too much choice creates confusion: it's a case of diminishing marginal utility.

A well designed website explains, directs, guides, and focuses visitor attention on the things that are of real benefit to your visitors and to your company.

Every business provides a variety of products, services, and information to their customers, but these things are not all of equal importance. Your website is a place to focus attention on your core marketing message, not a place to provide a shopping li'st of everything you are able to do and every product or service you may be able to offe"r.

2. Give Web Visitors Too Much Information To Process

Architect, author, and information designer, Richard Saul Wurman, in his book, 'Information Anxiety' talks about, "the ever-widening gap between what we understand and what we think we should understand."

Good website design is about more than technology and aesthetics; it's about deciding what information needs to be presented and what information needs to be left out. If you are truly an expert in your field, you should know what information is important to your customers in order for them to make a decision. Too much information is like too much choice, it confuses rather than clarifies. Focus on delivering meaningful content or risk having your visitors hit the exit button.

3. Give Web Visitors Too Much Non-relevant Content

The only thing worse than overloading your website with more information than visitors can absorb is confusing them with useless and non-relevant content.

Non-relevant content is content that doesn't advance your major purpose: to deliver your marketing message in an informative, engaging, entertaining, and memorable manner. If it isn't relevant, dump it.

4. Give Web Visitors Too Many Irritating Distractions

Websites should be designed to direct visitors to the information they want and that information should be the content you want to deliver.

You cannot sell someone a product or service they do not want. A real prospect is one that needs the same information you want to provide; the art of sale"s is directing potential clients to relevant information, and presenting it in a way that visitors see your product or service as fulfilling their needs.

On the surface, third-party advertisements and banners may seem like a good way to make some extra ca"sh from your traffi'c, but these ads become so distracting, visitors either get fed-up or cli'ck on one of the links that takes them away from your site. Whatever few bucks you earn from these ads, you are loosing by chasing real customers away; this of course assumes you are a real business with something legiti'mate to sell and not a website that's an excuse to deliver advertisements.

Other nonsense like favorite links and silly fluff-content merely distracts visitors from investigating your site to find what they are looking for.

5. Give Web Visitors Too Many Red Flags

Website visitors are constantly looking for red flags that tell them that the site they are visiting should be skipped as soon as possible.

If you want to make sure visitors won't deal with you make sure you don't provide any contact information: no contact names, no telephone numbers, and no mailing address is a sure sign that you won't look after any problems that arise from a website transaction.

Your website must be designed to build trust and foster a relationship, not scare people away.

6. Give Web Visitors Too Many Decisions To Make

How many decisions do you demand from your visitors in order for them to do business with you?

Take for example the seemingly simple task of purchasing a new television. Do you purchase the inexpensive but old tube technology, the newer Plasma technology, or the LCD technology? How about all the various features to choose from like picture-in-picture, commercial skip-timers, and on and on? All you really want to do is relax with your spouse and enjoy a good movie - is that on a VSH, DVD, Blu-ray, or HD-DVD?

7. Give Web Visitors Too Many Stumbling Blocks

Do you make people go through the order processing system before they can find out how much something costs, or do you demand potential customers read a ridiculous amount of small print legalese that only a lawyer could understand?

If you want to drive traffi'c away from your site make sure you build in as many stumbling blocks as possible.

8. Give Web Visitors Too Many Forms To Fill-in

Do you attract your visitors with special offers or free white papers and then demand that they fill-out complex forms, surveys, and questionnaires before you give them access to what they came for? If you do, you are probably losing a lot of people you attracted, and you are guaranteeing that your next email promotion will end up in the trash.

9. Give Web Visitors Incomprehensible Page Layouts

Good design, proper page layout, consistent navigation, and well organized information architecture that promotes serendipity, helps visitors find what they're looking for and provides a pleasant, efficient and rewarding experience for the website visitor.

Website designs that rely on technology, databases, and search engine optimization rather than focused content, coherent organization, articulate presentation, and a memorable, rewarding experience are designs designed to chase traffi'c away.

10. Give Web Visitors Too Many Confusing Instructions

One of the most frustrating experiences website visitors encounter is confusing instructions and incoherent explanations of how your product or service works or how to order what you are selling.

11. Give Web Visitors Too Many Reason To Cli'ck-out

If you really are determined to fail, make sure you provide website visitors with as many reasons as possible to leave your site: irrelevant links to your favorite sites, links to your suppliers because you're too cheap to put their information on your own site, or any combination of the reasons mentioned above, all contribute to driving traffi'c away from your site.

About The Author
Jerry Bader is Senior Partner at MRPwebmedia, a website design firm that specializes in Web-audio and Web-video. Visit www.mrpwebmedia.com/ads, www.136words.com and www.sonicpersonality.com. Contact at info@mrpwebmedia.com or telephone (905) 764-1246.


Sincerelly, NunDesign

1 апр. 2007 г.

Отношения между программистами и проектировщиками

Во всём цивилизованном IT-мире термин "Design" используется в контексте "проектирование" чего либо, и только у русскоязычных разработчиков "дизайнер" - это мастер по рисованию коллажей в фотошопе из нескольких идиотских фотографий известных клипартов. Однако и у нас, и где-бы то ни было так или иначе проектированию не уделяется достаточное количество времени, внимания и бюджетных проектных средств. У кого-то в большей степени, у кого-то в меньшей, но в любом случае не достаточное. И уж тем более если речь идёт о фрондэнде.

В мире технологий, где властвуют инженеры, всегда доминировала внутренняя архитектура программы, а проектирование взаимодействия, удобного пользователю, всегда оказывалось последней задачей, решаемой в свободное время.

Большинство программ проектируются случайным образом

Глиняные лачуги и подземные норы проектируются, пусть зачастую неосознанно, в рамках возможностей камня и тростника. Аналогичным образом все программы проектируются в рамках таинственных потребностей языков программирования и баз данных. Самое сильное влияние на проектирование во всех перечисленных материалах оказывает традиция. Разница, и большая, в том, что строитель, проектирующий лачугу, так же является и её основным жильцом, тогда как программисты обычно не используют спроектированные ими приложения.
В большинстве фирм, занимающихся разработкой программного обеспечения, просто нет людей, имеющих представление о проектировании для конечного пользователя. Но есть люди, имеющие более чем серьёзное представление о проектировании программ, имеющие своё собственное мнение и личные предпочтения. И потому они делают то, что делают, - проектируют взаимодействие с программой, как для самих себя, выбирая функциональность, которую проще всего и интереснее всего реализовывать, и при этом воображают, что на самом деле проектируют для пользователей. И хотя программисту кажется, что объём выполяемого проектирования очень велик, на деле много всего лишь проектирования программного, а проектирование для конечного пользователя почти отсутствует.
Недостаточное проектирование - тоже вид проектирования, поэтому когда кто-либо принимает решения о поведении программы, он принимает на себя роль проектировщика взаимодействия. Когда маркетолог настаивает на включении привлекательной функции в продукт он проектирует. Когда программист реализует в продукте излюбленный способ поведения, он проектирует.
Разница между проектированием хорошим и непроизвольным - в стиле клиняных домиков - не в применяемых инструментах и приспособлениях, но в мотивации. Настоящий проектировщик взаимодействия принимает решения, исходя из задач пользователя. Эрзац-проектировщики принимают решения, исходя из произвольного числа случайных соображений. Личные предпочтения, знакомство с предметом, страх перед неизвестностью, указания от Microsoft, ошибочные замечания коллег - все эти факторы играют на удивление серьёзную роль. Впрочем, чаще всего решения эрзац-проектировщиков склоняются в сторону пути наименьшего сопротивления.

--
Алан Купер, "Психбольница в руках пациентов"


Sincerelly, NunDesign