PC Magazine/RE - Журнал PC Magazine/RE №8/2011. Страница 2

В отличие от Intel c ее очевидным дисбалансом между великолепной производительностью вычислительных ядер ЦП (особенно новейших Sandy Bridge) и откровенной слабостью интегрированных с ними ГП, концепция AMD Fusion предполагает более взвешенный паритет. Так, платформа начального уровня AMD Brazos (процессоры Zacate и Ontario), нацеленная на противостояние Intel Atom в нетбуках и Intel Pentium в начальных моделях ноутбуков, содержит встроенную графику уровня Radeon HD 5450 куда более производительную, чем Intel GMA HD 2000. Впрочем, на нижнюю область нетбучного/ноутбучного (и даже неттопного) сегмента уже больше года активное давление оказывают планшеты, поэтому большого интереса для потребителя платформы Intel Atom и AMD Brazos все-таки не представляют. Гораздо любопытнее (особенно в сопоставлении с новинками Intel Sandy Bridge) решения на APU AMD Llano, предложенные нынешним летом: Lynx, рассчитанное на стационарные ПК, и мобильное Sabine. Так же как и ЦП Atom, они построены по упрощенной архитектуре, что позволяет снизить и цену, и тепловыделение (благодаря сокращению числа транзисторов). Однако УП Llano – полноценные современные процессоры (микроархитектура Stars), способные содержать до четырех вычислительных ядер общего назначения, а также до четырех сотен потоковых графических процессоров – почти впятеро больше, чем представители платформы Brazos. В мобильном сегменте картина примерно та же.

В любом случае, эпоха однопоточных вычислений уходит в прошлое. И чем больше внимания программисты будут уделять многопоточному программированию, тем выгоднее будет оказываться обсчет самых разнообразных задач на УП вместо ЦП.

Летний бунт поисковых машин

Июль 2011 г. в российском сегменте Интернета ознаменовался серией скандалов, связанных с активностью поисковых систем. Точнее, с тем, что роботы-краулеры этих систем, оказывается, собирают информацию в Интернете! И предоставляют ее всем, кто способен составить детализированный поисковый запрос! «Ужас!» – возмутилась общественность. – «Неужели все, что попадает в Интернет, действительно может быть проиндексировано?!» Шел 2011 г…

Поисковые машины действительно устроены так, что собирают любую открытую незашифрованную информацию. Именно благодаря поисковикам Всемирная паутина вышла на самый высокий уровень связности, какого невозможно было бы достичь одним лишь использованием гипертекста. Не будь у AltaVista, WebCrawler, Google, «Яндекса» и прочих машин возможности искать (и находить!) Web-страницы в соответствии с запросами пользователей, – Интернет до сих пор был бы пристанищем гиков, нердов, хакеров и прочих занятных персонажей хайтековского бестиария.

Более того, только благодаря поисковикам и связанным с ними системам контекстной рекламы Web-активность больших компаний и отдельных граждан получила шанс окупиться. Сам факт появления такого неприглядного бизнеса, как поисковая оптимизация, свидетельствует: именно поисковые машины правят нынешним Интернетом. Принимать или не принимать в расчет особенности их работы – решает для себя каждый создатель крупного сайта или персональной Web-странички, однако, если полностью игнорировать очевидное, происходит именно то, что случилось в середине июля с Рунетом.

Многие администраторы сайтов сами заботятся о том, чтобы поисковые роботы индексировали их странички в точности так, как до`лжно. Для этого имеются два инструмента: карта сайта (XML-файл стандартизованного протокола Sitemaps, информирующего краулеров о подлежащих индексации страницах) и перечень исключений (пресловутый файл robots.txt, где содержатся инструкции по ограничению индексации подразделов сайта).

Соответственно, если Web-мастер или владелец странички не обладают достаточной компетенцией (или же им просто лень), инструкции для поисковых роботов не будут предусматривать сокрытия конфиденциальной информации. Такой, например, как кэш страничек с SMS-сообщениями, отправляемыми с Web-сайтов сотовых операторов. Или страницы подтверждения заказа для онлайновых магазинов (от службы доставки железнодорожных билетов до секс-шопа).

Так что пенять на поисковики в данном случае бессмысленно – вместо бунта краулеров мы имеем тут дело с очередным проявлением чисто человеческой несобранности. Кстати, если речь идет о Web-кэшировании страниц с персональной информацией, доступ к ним следует организовывать с применением шифрования по протоколу HTTPS. Но тогда придется получать сертификат безопасности, своевременно его верифицировать, тратить часть вычислительных мощностей сервера на шифрование сессий… Тоже, видимо, лень.

А следом за скандалами с обнародованием нескольких тысяч SMS-сообщений и нескольких сотен счетов из онлайновых магазинов в конце июля чуть было не полыхнуло по-настоящему, когда информационные ленты запестрели сообщениями о том, что в результатах выдачи поисковых машин по запросам «совершенно секретно» и «для служебного пользования» стали попадаться соответствующие документы отечественных госорганов.

Правда, достаточно быстро выяснилось, что проиндексированными оказались не сами документы СС/ДСП, а официальные бумаги, содержащие упоминания о них. И это понятно: госсекреты у нас традиционно оберегаются строже, чем персональные данные.

Вместе с тем именно в конце июля вступили, наконец, в силу президентские поправки в закон № 152-ФЗ «О персональных данных». Теперь граждане получают основания требовать компенсации морального и материального вреда за утечку информации о себе (в том числе и через Интернет, в том числе и из-за некорректно прописанного файла robots.txt на страничке оформления заказа в онлайновом магазине).

Допустившее утечку персональных данных юридическое лицо может быть отныне оштрафовано на несколько десятков тысяч рублей, а при повторном подобном нарушении поплатиться приостановкой деятельности. Возможно, внезапное обнаружение поисковиками не защищенных от индексирования страничек с персональной информацией имело, скажем так, профилактический смысл?

Плюс нож в спину бесплатным облакам

Очередная новая служба Google, социальная сеть Google+, стартовала в режиме доступа «по приглашениям». Как водится, первыми ее виртуальное пространство наводнили энтузиасты, искренние приверженцы поисковика и его сервисов. Тем горше для многих из этих энтузиастов было обнаружить в последние сутки, что их учетные записи в Google+ заморожены – по причине «нарушений пользовательского соглашения».

Подвергнутые остракизму пользователи при попытке входа в свою учетную запись обнаруживали такое сообщение (в переводе): «Рассмотрев ваш профиль, мы сделали вывод, что использованное вами имя нарушает стандарты нашего сообщества».

По большей части в нарушении «стандартов сообщества» признаны повинными те, кто вместо реальных имен указывал ники, домашние прозвища или случайные наборы символов. Досталось, однако, под горячую руку и тем, чьи родители проявили в свое время излишнюю креативность, выбирая имя для своего чада. Так был заморожен аккаунт Киррили Роберта (Kirrily Robert – ну правда же, что это за имя такое, «Kirrily»?), бывшего сотрудника самой же Google, и далеко не его одного.

Современные социальные сети с особым рвением подходят к тому, чтобы заставить своих участников раскрывать реальные персональные данные. При регистрации в Facebook, к примеру, необходимо вводить такое личное имя, которое система признает подлинным (похоже, производится сверка с соответствующей базой данных; фамилии же куда более разнообразны, так что тут прямая проверка затруднена).

Ничего удивительного тут нет: социальная сеть эпохи расцвета Web 2.0 – не благотворительный проект. Она действует по принципу «вы даром создаете контент, мы зарабатываем на этом деньги». Вот почему никому из крупных инвесторов не интересны (и, как следствие, медленно умирают) проекты вроде «Живого Журнала», нелюбопытные в отношении персональных данных своих пользователей. Вот почему требования к деанонимизации подписчиков соцсетей формулируются и соблюдаются предельно жестко.

Хотя есть, разумеется, и исключения – вроде Сергея Брина, чей подлинный (неофициальный) аккаунт на Facebook размещен под псведонимом, или собачки Марка Цукерберга, располагающей собственной учетной записью в соцсети своего хозяина.

Проблема с внезапным крестовым походом Google+ против учетных записей, информация в которых не соответствует «стандартам сообщества», вовсе не в том, что соцсеть жаждет получить максимум коммерчески ценной информации о своих подписчиках. Проблема именно во внезапности: уже где-то с месяц назад люди завели себе учетную запись на базе существующего аккаунта Gmail (где не требуется в обязательном порядке указывать подлинные личные данные)… и вот вам – приехали. А ведь первыми в Google+ потянулись как раз наиболее преданные поклонники поисковика и его служб. Наученные горьким опытом многочисленных утечек личных данных, эти люди стараются по возможности не светить свои личные данные в Сети лишний раз – и учетная запись в Gmail им такую возможность предоставляла. А вот Google+ – уже нет.