Книги онлайн » Книги » Книги о бизнесе » Менеджмент и кадры » Власть и прогресс - Саймон Джонсон
Перейти на страницу:
числе в его многочисленных сабреддитах [подразделах – прим. пер.], носящих названия «Наш Дональд» (там рождались и циркулировали конспирологические теории и дезинформация о Дональде Трампе), «Физическое устранение» (аргументы в защиту физического уничтожения либералов) и некоторых иных с откровенно расистскими названиями, которые мы здесь повторять не будем. В 2015 году «Южный центр правовой защиты бедноты» [американская правозащитная организация, занятая в основном борьбой с белым расизмом и ультраправыми движениями в США – прим. пер.] назвал Reddit платформой, на которой можно найти «самый откровенно расистский» контент в Интернете.

Неужели для соцсетей неизбежно превращение в такую выгребную яму? Или же к этому прискорбному положению дел привели нас некоторые решения ведущих IT-компаний? Второй ответ гораздо ближе к истине, и он же, по сути, отвечает на вопрос, поставленный в предыдущей главе: откуда такая популярность у ИИ, несмотря на то что он не повышает всерьез производительность и не справляется с человеческими задачами лучше человека?

Ответ – и причина такого специфического направления развития цифровых технологий – в прибылях, которые получают компании от сбора огромных массивов данных и использования их для индивидуально-таргетированной цифровой рекламы. Но цифровая реклама работает, лишь когда люди обращают на нее внимание, так что эта бизнес-модель означает, что платформы стремятся повышать вовлеченность пользователей. А как проще всего это сделать? Культивировать сильные эмоции, например ярость или негодование.

Сделка с рекламой

Чтобы понять, откуда растут ноги у дезинформации в соцсетях, нам придется начать издалека – с происхождения Google.

Интернет процветал и раньше, но тогдашние поисковые машины были не слишком полезны. Самое примечательное в Интернете – его огромные размеры: на сегодня количество сайтов во Всемирной паутине оценивается в 1,2 млрд. Просматривать все эти сайты в поисках необходимой информации или продукта – в принципе непосильная задача.

Идея, на которой строились ранние поисковики, знакома любому, кто хоть раз пользовался алфавитным указателем в конце книги. Если вам нужно найти, где в книге упоминается эпоха неолита, загляните в указатель: там вы найдете слово «неолит» и список страниц, где встречается это слово. Книжный указатель полезен, поскольку каждое слово появляется в книге ограниченное число раз, так что нужное вам место несложно найти методом перебора – просто проверив все указанные страницы. Но теперь вообразите, что перед вами указатель большой-пребольшой книги – такой как Интернет. Если вы составите список страниц, на которых в этой огромной книге встречается слово «неолит», в нем может оказаться сотня тысяч пунктов. Удачи вам в том, чтобы проверить их все!

Разумеется, проблема в том, что многие из этих упоминаний нерелевантны. Из множества сайтов, на которых в том или ином контексте упоминается «неолит», авторитетными источниками, где можно найти необходимую информацию, например, о том, как люди перешли к оседлой жизни и земледелию, могут оказаться всего один или два. Чтобы быстро находить релевантную информацию, необходимо сделать более важные упоминания приоритетными и показывать их в первую очередь. Этого ранние поисковики еще не умели.

Но вот на сцену выходят два изобретательных и дерзких молодых человека, Ларри Пейдж и Сергей Брин. Пейдж был студентом магистратуры в Стэнфорде, работал со знаменитым профессором компьютерных наук Терри Виноградом; с Сергеем они были друзьями и жили в одной комнате. Виноград, поначалу один из первых энтузиастов ИИ в его нынешнем воплощении, к тому времени изменил свои взгляды и теперь работал над задачами, в которых способности человека и машины могут плодотворно сочетаться – примерно так, как предвидели Винер, Энгельбарт и Ликлайдер. Интернет, как мы уже видели, был очевидной областью приложения подобных усилий: его «сырье» – знания и тексты, созданные людьми, однако, чтобы проложить курс в этом море информации, требуются алгоритмы.

Пейдж и Брин нашли способ создать такую комбинацию, в каком-то смысле истинное сотрудничество машины с человеком: человеку виднее, какие веб-страницы содержат более релевантную информацию – а поисковые алгоритмы прекрасно умеют собирать и обрабатывать информацию, заключенную в ссылках. Почему бы не построить механизм, в котором человеческие предпочтения тех или иных ссылок будут показывать алгоритмам, какие вебсайты выдавать в списке первыми?

Поначалу это была чисто теоретическая идея; ее воплощение было еще впереди. Затем пришло и алгоритмическое решение. Оно легло в основу революционного алгоритма PageRank (название отсылает не только к веб-страницам, но и к фамилии Пейджа). Идея состояла в том, чтобы приоритизировать среди релевантных страниц те, которые получают больше ссылок на себя. Вместо того чтобы решать, какие страницы об эпохе неолита содержат больше полезной информации, на основе каких-то взятых с потолка правил, алгоритм может рассортировать эти страницы согласно тому, сколько людей их посещает. Чем больше переходов ведет на страницу, тем она популярнее. Но к чему останавливаться на этом? Если страница получает переходы с других страниц с большим количеством переходов, это более информативное указание на ее релевантность. Это открытие Пейдж и Брин воплотили в рекурсивном алгоритме, в котором у каждой страницы есть свой «ранг», и определяется он тем, сколько других «высокоранговых» страниц ссылаются на эту («рекурсивный» здесь означает, что место каждой страницы в списке зависит от места всех остальных). Интернет-сайтов миллионы, и вычислить «ранг» каждого было нетривиальной задачей, но в 1990-е годы вполне выполнимой.

В сущности, как именно алгоритм подсчитывает результаты – вопрос второстепенный. Важным прорывом стало то, что Ларри Пейдж и Сергей Брин открыли новый способ взаимодействия человека и машины. Человеческие знания и догадки, воплощенные в субъективных представлениях о том, какие сайты наиболее релевантны, использовались, чтобы помочь машине выполнить свою задачу – рассортировать найденные сайты по релевантности. Человеко-машинный симбиоз в лучшем своем проявлении!

Статья Брина и Пейджа 1998 года, озаглавленная «Анатомия широкомасштабного гипертекстуального интернет-поисковика», открывается такой аннотацией:

«В этой статье мы представляем Google, прототип широкомасштабного поисковика, активно использующего структуру гипертекста. Google разработан для того, чтобы служить в Сети эффективным указателем и выдавать намного более удовлетворительные результаты поиска, чем существующие поисковые системы».

Пейдж и Брин понимали, что это серьезный прорыв, но у них не было четких планов его коммерциализации. Рассказывают, что Ларри Пейдж как-то признался:

«Это поразительно, но я вообще не собирался делать поисковик. Даже близко не было такой мысли».

Однако, когда проект был завершен, стало ясно, что в руках у них золотая рыбка. Если Пейдж и Брин смогут создать этот поисковик, он преобразит всю работу Всемирной сети.

Так появилась первая мысль о Google как организации. Поначалу Пейдж и Брин рассчитывали продавать другим программное обеспечение или лицензии. Но первые их попытки ни к чему не привели, отчасти потому что крупные IT-компании были слишком погружены

Перейти на страницу:
В нашей электронной библиотеке 📖 можно онлайн читать бесплатно книгу Власть и прогресс - Саймон Джонсон. Жанр: Менеджмент и кадры / Экономика. Электронная библиотека онлайн дает возможность читать всю книгу целиком без регистрации и СМС на нашем литературном сайте kniga-online.com. Так же в разделе жанры Вы найдете для себя любимую 👍 книгу, которую сможете читать бесплатно с телефона📱 или ПК💻 онлайн. Все книги представлены в полном размере. Каждый день в нашей электронной библиотеке Кniga-online.com появляются новые книги в полном объеме без сокращений. На данный момент на сайте доступно более 100000 книг, которые Вы сможете читать онлайн и без регистрации.
Комментариев (0)