Новини ІТ

Подарунок для Цьоці Асі. ICQ та інтелектуальна власність.

Найпопулярнішим сервісом миттєвих повідомлень на просторах СНД була і є така собі ICQ. Якось так історично склалося, що не мати і не користати ICQ є практично моветоном для активного користувача Інтернету в наших краях. Навіть мене, що я дуже не люблю цей сервіс, життя таки заставляє інколи ним користати.

Веб 2.0 - другий шанс для Уанету

Глобальне середовище World Wide Web на сьогодні є безпрецедентним і унікальним інформаційним ресурсом, який об’єднує в собі величезні об’єми інформації. Розвиток цього глобального середовища є одним з ключових напрямків глобалізації та розвитку цивілізації.
Кількість користувачів Інтернет зараз у світі сягає мільярда і продовжує швидко зростати. У цьому рості приймають участь традиційно високотехнологічні країни (Північна Америка, Європа, далекосхідний регіон), проте останнім часом спостерігається також стрімкий ріст популярності Інтернет і в країнах третього світу
Україна приймає активну участь у розвитку даного середовища. WWW поступово займає домінуюче місце серед засобів пошуку, передачі інформації, спілкування в Україні. По різних даних, в Україні активними користувачами Інтернету є від 15% до 20% населення. Вплив WWW на українську громаду постійно зростає, складаючи серйозну конкуренцію електронним ЗМІ та друкованим виданням.
Проте, зі сумом можна зазначити, що на сьогодні Україна та українська нація не використовує в належній мірі потенціал WWW для свого розвитку, більше того, деякі тенденції розвитку WWW та Інтернету породжують обгрунтовані перестороги щодо можливих нових загроз для України. Причиною такої ситуації є не стільки характер сучасних технологій (розвиток Веб-технологій носить досить об'єктивний характер і не може класифікуватися як ворожий Україні), скільки пасивність України у формуванні структури та правил WWW.

Технологія AJAX та пошукові системи

Технологія AJAX стрімко увірвалася в типовий набір технологій формування Веб-сторінок і зараз набуває ще більшої популярності.
Вперше користувачі близько познайомилися з AJAX в новій пошті Google Mail (Gmail) і були вражені високою інтерактивністю Веб-сторінок та їхньою “легкістю” під час змін. Фактично, по інтерактивності такі сторінки вже більше співмірні з локальними програмами “офісного” класу ніж з традиційними HTML-сторінками.
Я не буду зараз вдаватися в деталі технології (це тема для окремого матеріалу, і сподіваюся, що такий матеріал в нас на сайті ще зявиться), відмічу коротко що суть технології наступна. Браузер, окрім статичного HTML разом зі сторінкою підтягує досить хитрий JavaScript код, який постійно тримає звязок зі сервером, отримує потрібні інструкції зі сервера, і відповідно до них модифікує код сторінки (сторінка видозмінюється).
Детальніше про технологію можна почитати наприклад тут http://en.wikipedia.org/wiki/Ajax_%28programming%29
У цій статті мова дещо про інше. Річ у тім, що окрім броузерів сторінки сайту “переглядають” і роботи пошукових систем. А для них звичайно AJAX не значить нічого, і замість AJAX-сторінок вони бачать пусте місце, або стартовий статичний HMTL-код сторінки.
Тут і виникає певна проблема. Попри всю зручність і ефектність сайт виконаний по технології AJAX може для пошукової системи бути пустим місцем. Тобто відвідувачі на сайт з пошуківців потрапляти не будуть. А таку розкіш можуть дозволити далеко не всі власники сайтів.
Коли я вперше познайомився з AJAX, моя думка щодо технології з наведеної вище причини була цілком негативною.
Проте, при детальнішому розгляді стає зрозуміло, що не все так погано. Більше того, використання AJAX для деяких типів сайтів за певних умов може стати навіть корисним з точки зору позиціонування в пошукових системах.

ЛемінгНет

ЛемінгНет - отакий термін придумав, помітивши, що і на ФоРуМі не обійшлося без обговорення чергового проекту для бажаючих побігати натовпом на ще один "суперпроект" (а хоча чого в лапках - проект справді супер, настільки легко люди напевно ще ніколи гроші не віддавали, навіть Кролика Тобі їсти не довелося).
ЛемінгНет - мережа для лемінгів, знаєте є такі чарівні тваринки, які періодично збираються в купки по мільйону (!) і біжать топитися в найближчу водойму.

Якоб Нільсен: “Пошукові системи – пиявки на тілі Вебу”

Невелика стаття провідного фахівця з юзабіліті Веб-сайтів Якоба Нільсена Search Engines as Leeches on the Web уже встигла трохи наробити шуму.
Як і багато інших теоретиків та практиків Веб-технологій, Якоб Нільсен звернув увагу на те, що пошукові системи часто позбавляють користувача потреби заходити на сайт, з якого отримано інформацію.
Нільсен стверджує, що має місце тенденція до зміни характеру запитів користувачів до пошукових машин в напрямку конкретизації. Як наслідок, часто користувач задовольняє свою інформаційну потребу, просто переглядаючи результати пошуку. Важко сказати, наскільки правий Нільсен, але слід мати на увазі, що він має серйозну аналітичну службу, яка досліджує поведінку людей у Вебі.
Відзначу також, що деякі аналогічні проблеми взаємодії пошукових машин та інших сайтів уже обговорювалися на ІТ-Аналітика (зокрема ось тут - Пошукові системи та інтелектуальна власність )
У своїй статті Нільсен фактично декларує необхідність виходу сайтів з під залежності від пошукових систем.
У завершальній частині статті автор пропонує власникам сайтів ряд механізмів, які мають допомогти звільнитися від такої залежності. Це зокрема наступні засоби:

Google припинив трансляцію PageRank

Уже пару днів Google припинив публічну трансляцію рангу сторінок, зокрема не відображається PageRank у популярному Google Toolbar та його клонах, не видається PageRank також і на публічних сервісах.

Це може значити одне з двох
1 - виникла якась технічна проблема (наприклад упав відповідний сервер Гугла)
2 - Гугл свідомо припинив трасляцію PageRank. Цілком можливо - як засіб проти свідомої торгівлі даним показником (посиланнями з зі сторінок з високим PageRank). Явище торгівлі PageRank почало набувати системного характеру, можна було говорити про уже частково сформований ринок з цінами, попитом, пропозицію та торговими точками.

Акселератор від Google

Гугл випустив чергову цяцьку - на цей раз це програма акселератор, яка вствновлюється на комп'ютер користувача як проксі-сервер. Призначення - оптимізація трафіку користувача з метою покращення швидкодії.
Механізм - проміжне кешування та компресія сторінок на спеціальних серверах Гугла. Тобто сторінки до вашого броузера доставлятимуться не напряму зі сайту, а через сервери Гугла.

Візуальна структура сторінки з точки зору Гугла

http://www.google.com/support/adsense/bin/static.py?page=tips.html
Цікаве дослідження Гугла щодо структури сторінки та зон уваги на ній. Дослідження зроблено в контексті визначення оптимального (по прибуткам) місця реклами на сторінці

Adsense в лентах блогів

Гугл розпочав тестування розміщення реклами Adsense в RSS-каналах. Це є сильним бонусом для сайтів-блогів, які часто не відвідуються користувачами через броузер, а просто переглядають ленти новин в RSS-форматі. Раніше такі сайти імовірно значно втрачали на рекламі. Тепер у них навпаки - буде можливість заробити

Вставка реклами відбувається не традиційним для AdSense JavaScript кодом, а вставкою малюнка зі спеціальною адресою (більше схоже на банерну рекламу)

Приклад такої реклами поки лише один
http://www.longhornblogs.com/MainFeed.aspx

Подивитися на неї можна, причепившись до ленти новин через RSS-рідер (наприклад Abilon)

Добре буде тим, чиї ленти імпортують інші! Щоправда тут може виникнути нюанс з накладанням реклами
По оговореннях на фахових англомовних форумах можна уже робити певні висновки щодо можливих впливів даної технології на галузь

Можна назвати зокрема такі:
- Почнеться боротьба за популяризацію каналів
- Стане вигідно роміщати весь контент в RSS, а не лише анотацію (інакше можна буде "залишитися на узбіччі")
- Крадіжка або агрегація RSS-каналів буде компенсуватися віддачею від показу реклами
- Акцент в Веб-проектах і надалі буде зміщатися від Веб-дизайну до формування контенту

Назагал зміни можна вважати позитивними якщо не для всієї спільноти, до для більшої її частини (включно з користувачами Інтернету) і для впровадження нових стандартів та технологій (зокрема Semantic Web)

Банерна реклама від Google

Новина від Гугла - запущено систему банерної реклами, яка по своїй суті є формою Адсенсе з графічними банерами та оплатою за покази, а не за кліки.
Рекламодавці можуть визначати сайти де може крутитися реклама (що не виключає використання контекстого підбору реклами). Рекламодавець повинент задати максимальну вартість тисячі показів реклами.
Детальніше тут - http://services.google.com/ads_inquiry/sitetarget?hl=en
Підозрюю що причиною такому нововведенню стали скарги тих рекламодавців, які вважають що їхню рекламу навмисне склікують

Простий візуальний редактор для XHTML

Зіткнувся з наступною задачею - потрібна була програма для напистання HTML-коду в візуальному режимі, притому щоби задовольнялися такі вимоги як

  • чистота коду. Лише HTML-strict теги, без візуального форматування, лише логічне форматування (заголовки, списки, семантичне виділення - теги CODE, STRONG, EMP і тп)
  • всі теги повинні обов'язково закриватися (передбачалося
    висмикування HTML-коду і вставка в іншу сторінку)
  • простота інтерфейсу та легкість
  • безкоштовність

Після пошуків знайшов Amaya - http://www.w3.org/Amaya/ - офіційний проект
W3 Consortium (як любила казати мама - "знайшов сокирку під лавкою" :) )

Задовольняє всім перерахованим вимогам. Можна давати оператору для
написання фрагментів HTML-коду які потім вставлятимуться в сайт в якості
наповнення.

Також зручно писати текст для блогу. Власне зараз у цьому редакторі і пишу
даний текст.

Причини невдач впровадження корпоративних систем

Розкішну статтю побачив на securitylab.ru. SecurityLab.ru - "Черные" ИТ-проекты прижились в России - автор гарно описав основні причини провалу більшості проектів по комплексній інформатизації підприємств.
Як людина, яка має немалий досвід у цьому ділі, підтверджую дану статтю. І в твердженні, що провалюються від 50% до 80% процентів впроваджень - також.

linkdomain - пошук усіх посилань на сайт від Yahoo

Частою проблемою перед власником сайту є визначення усіх зовнішніх посилань на сайт. Знати хто і як, в якому контексті, посилається на сайт вкрай важливо та корисно.
Базовим методом розв'язання цієї задачі є використання спеціальних запитів до пошукових машин. Часто використовується запит link:yoursite або подібні в пошуковій машині Google.
Проте виникають дві суттєві проблеми
1. Запит повертає посилання лише на конкретну сторінку сайту, а не на всі сторінки. Це суттєве обмеження для сайтів з великою кількістю інформаційних сторінок (зокрема форумів, блогів, сайтів новин)
2. Запит повертає і внутрішньосайтові посилання. Що засмічує результат зайвою інформацією. Це суттєво для сайтів з великою кількістю сторінок та розгалуженою інформаційною структурою (приклади ті самі).
Тут може допомогти Yahoo та наступний синтаксис запитів до нього:
linkdomain:it.ridne.net -link:http://it.ridne.net -link:http://www.it.ridne.net -site:it.ridne.net

Як організовувати зустрічі в реалі

Написав для Форуму Рідного Міста гарну заміточку про те, як організовувати в реалі зустрічі віртуальних компаній.
Стаття актуальна для багатьох інтернет-тусовок, тому продублюю її тут також

1-вий "жарт" Яндекса

Увесь рунет кипятком від радості обливався з приводу жарту Яндекса, який імітував вивід сайту на перше місце у видачі. Особливо дана мулька була популярна серед оптимізаторів.
Радості неміряно - свій сайт на перше місце по крутому слову на Яндекс вивести.
Навіть у нас на Форумі таким захоплювалися. Форум і Яндекс - Інтернет та мережі - Львів. Форум Рідного Міста
А ніхто не задумався, що Яндекс за один день набив собі базу сайтів, над якими працюють оптимізатори?
І що він тепер буде з тою базою робити?
Якщо дурні - то викинуть і забудуть. Якщо мудрі - то отримають серйозний матеріал для аналізу та моніторингу.
Гарний жарт - і людям радість і собі користь. Правда, чи буде користь саме тим, кому радість - сумніваюся

Гарний список роботів

Надибав гарний список ботів List of User-Agents (Spiders, Robots, Browser) - досить обширний і з описами.

Пошукові системи та інтелектуальна власність

Усе частіше пошукові системи та інші системи агрегації інформації з інтернету стають об’єктами переслідування за порушення інтелектуальної власності.
На цей раз “під обстріл” знову попав Гугл – Франс Прес подало в суд позов сумою 17 млн доларів на Гугл за порушення копірайту при републікації на своїй службі Google News новин агенства. http://news.com.com/2100-1030_3-5626341.html
Нагадаю, що дана служба автоматично агрегує новини з різноманітних джерел, рангує їх, і найважливіші виводить на чільні сторінки та забезпечує можливість тематичного пошуку по новинах.
Основними напрямками, по яких виникають проблеми глобальних сервісів з копірайтом є:

  • Результати пошуку по “брендах”
  • Контекстна реклама по “брендах”
  • Видача та кешування інформації, що захищена копірайтом

Ботнети

Моя теза про наявність передумов для появи глобальних загроз для інтернету, яку я висловив пару повідомлень назад, таки знаходить, на жаль, підтвердження.
Нарешті на широкі маси винесено аналітичну інформацію про таку загрозу, як ботнети – мережі користувацьких комп’ютерів, що можуть віддалено керуватися зловмисниками. Дана інформація широко обійшла спеціалізовані сайти, з нею зокрема можна познайомитися тут - SecurityLab.ru - ПК-зомбоиды нацеливают на кражу персональных данных

Syndicate content