Мы в соц.сетях
Главная » Аналитика » Метавселенная: вычислительные технологии
Метавселенная: вычислительные технологии
Опубликовано 14.01.2022

Вычислительные технологии для Метавселенной

Это четвертая часть “Путеводителя по Метавселенной”, посвященная роли вычислительных технологий в “Метавселенной”.

Здесь под вычислениями мы понимаем “обеспечение вычислительных ресурсов для поддержки Метавселенной и таких разнообразных функций, как физика, рендеринг, согласование и синхронизация данных, искусственный интеллект, проекция, захват движения и трансляция.”

Содержание:

Оценка потребности в вычислительных мощностях

В разделах, посвященных оборудованию и сетевым технологиям, я рассмотрел лишь часть дополнительных данных, которые будут генерироваться и передаваться в рамках Метавселенной — тактильные ощущения, сканирование мимики и окружающей среды в реальном времени. На самом деле этих данных будет на порядки больше.

Например, основатель и генеральный директор Nvidia Дженсен Хуанг считает, что следующим шагом в развитии виртуальных симуляций будет нечто большее, чем просто создание более реалистичной графики. Это будет применение “законов физики элементарных частиц, гравитации, электромагнетизма, электромагнитных волн, [включая] световые и радиоволны… давления и звука”.

(по ссылке вы получите постоянный кэшбэк комиссий 20% на бирже Binance, зарегистрируйтесь сейчас по уникальным условиям — воспользоваться можно будет позже)

И по мере развития виртуального мира, будет также расширяться и “реальный” мир. С каждым годом в окружающий нас физический мир будет интегрировано все больше датчиков, камер и чипов Интернета вещей, многие из которых будут в режиме реального времени взаимодействовать с виртуальной симуляцией.

Тем временем наши персональные устройства будут служить нам пропуском в виртуальные миры и по совместительству генерировать многие из них. Короче говоря, большая часть окружающего нас мира будет взаимосвязана и постоянно подключена к сети. Включая нас.

В целом, Метавселенная потребует самые большие вычислительные мощности в истории человечества. Но вычисления всегда были и, вероятно, будут крайне дефицитным ресурсом.

По словам Криса Диксона, генерального партнера Andreessen Horowitz, “спрос на все хорошие вычислительные ресурсы в мире исторически всегда превышал предложение…  Это относится также к центральным и графическим процессорам.

В результате доступность и развитие вычислительных мощностей будут ограничивать и определять то, как развивается Метавселенная (даже если конечные пользователи этого не осознают). Не имеет значения, сколько данных вы можете получить, как быстро, или почему, если эти данные нельзя использовать.

Возьмем к примеру такие популярные игры как Fortnite или Roblox. Хотя эти платформы преуспевают благодаря невероятным творческим достижениям, важно признать, что лежащие в их основе идеи далеко не новы — просто до недавнего времени не было возможности их реализовать. Разработчики уже давно мечтают объединить десятки (а может быть сотни или даже тысячи) живых игроков в одной общей симуляции, а также создать виртуальные среды, не ограниченные ничем, кроме воображения.

Только к середине 2010-х годов устройства потребительского класса смогли массово поддерживать игры с сотней реальных игроков в одном матче. Тогда же появилось достаточное количество доступного серверного оборудования, способного синхронизировать эту информацию практически в режиме реального времени.

Как только мы преодолели этот технический барьер, игровая индустрия пережила взрывной рост продуктов, ориентированных на UGC и большое количество одновременных пользователей (Free Fire, PUBG, Fortnite, Call of Duty: Warzone, Roblox, Minecraft). И затем эти игры быстро расширились до уровня медиа-развлечений, которые ранее были возможны “только в реальном мире” (например, концерт Трэвиса Скотта в Fortnite или Lil Nas X в Roblox).

Игры Battle Royale

“Судя по всему, среднее количество ежедневных активных пользователей во всех играх жанра королевской битвы вместе взятых превышает 350-400 миллионов. Это больше, чем у всего рынка традиционных ААА игр на консолях и ПК. Поразительное достижение для нового по сути жанра. Похоже мы обнаружили новый культурный примитив.”

Тем не менее, даже через четыре года после появления жанра королевской битвы, для того, чтобы все работало как нужно, по-прежнему необходимо использовать ряд приемов.

Например, большинство игроков никогда по-настоящему не бывают вместе. Вместо этого они разбросаны по большой карте. Это означает, что, хотя серверу необходимо отслеживать, что делает каждый игрок, устройству пользователя не нужно отслеживать / обрабатывать действия всех остальных игроков.

А когда игроки Fortnite собираются в более ограниченном пространстве для социального мероприятия — например, концерта — количество участников сокращается до 50, а набор действий ограничен по сравнению со стандартными игровыми режимами.

Для пользователей с менее мощными процессорами приходится идти на большие компромиссы. Устаревшие устройства, например, не будут загружать пользовательские скины других игроков (поскольку они не влияют на игровой процесс), заменяя их на стандартные.

Примечательно, что в игре Free Fire, которая доступна только на мобильных устройствах и в основном используется на андроидах низкого и среднего класса на развивающихся рынках, количество игроков в матче основного режима королевской битвы ограничено пятьюдесятью.

Это заставляет меня задуматься о том, к чему приведет дальнейшая эволюция такого рода игр. Наш максимум — 10,7 миллиона игроков в Fortnite. Но это 100 000 отдельных игровых сессий на сто человек. Сможем ли мы в конечном итоге собрать их всех вместе в одном общем мире? И как бы это выглядело? Технологии постоянно развиваются, и в будущем возникнут совершенно новые жанры, которые мы пока что не можем даже придумать.Тим Суини (2019)

Конечно, мы со временем преодолеем эти ограничения.

В 2019 году вышла Call of Duty: Warzone, где количество игроков в матче было увеличено до 150 (правда, только на мощных консолях и ПК; в Call of Duty Mobile количество игроков в матче по-прежнему ограничено сотней). Roblox также повысили количество одновременных игроков до 200 в своих относительно менее детализованных мирах, и до до 700 в бета-тестировании (и обещают в будущем увеличить лимит одновременных игроков до 1000). Improbable проводили публичные тесты с четыремя тысячами одновременных игроков.

Но поддержка большего количества одновременных пользователей — это не единственное требование к нашим вычислительным устройствам.

Мы хотим, чтобы у наших персонажей в Fortnite было больше настраиваемых предметов, помимо наряда и рюкзака. Как насчет отдельного набора обуви или головных уборов? Или возможности по-настоящему участвовать в виртуальном концерте, а не просто смотреть его из практически неинтерактивной ограниченной зоны?

Возвращаясь к предыдущему примеру, на момент выхода Microsoft Flight Simulator, менее 1% Mac, ПК и ноутбуков были достаточно мощными, чтобы запустить игру на самых низких настройках графики. Даже консоли следующего поколения от Microsoft — Xbox серии S и cерии X — которые были выпущены через два месяца после выхода игры, все еще не поддерживают ее [на момент написания материала].

Это не значит, что всем продуктам Метавселенной потребуется постоянная мгновенная обработка большого количества данных (представьте себе сквеоморфный конференц-зал). Высокое качество и детализация, конечно, способствуют более глубокому погружению, но гораздо лучше иметь доступ к виртуальным мирам сразу с нескольких устройств, чем только с самых мощных

Но история человечества показывает, что рост вычислительных мощностей всегда приводит к прогрессу — именно поэтому спрос на них всегда превышал предложение. Идею Дженсена Хуана о том, чтобы воспроизвести “божественный замысел” в виртуальном мире можно счесть чрезмерной и непрактичной. Но это требует предсказания и отклонения инноваций. Мог ли кто-то представить, что появление игр в жанре королевской битвы изменит мир?

Где размещать и наращивать вычислительные мощности?

Существует несколько различных точек зрения, касательно того, как нам удовлетворить постоянно растущую потребность в вычислительных ресурсах и решить проблему их относительной нехватки.

Одна из них заключается в том, чтобы осуществлять большую часть обработки виртуальной симуляции в облаке, а не на локальных вычислительных устройствах.

Облачные потоковые игровые сервисы, например, Google Stadia и Amazon Luna, обрабатывают весь игровой процесс в облаке и передают его пользователю в виде потокового видео. Единственное, что нужно сделать клиентскому устройству, это воспроизвести это видео и отправить входные данные игрока (например, перемещение, нажатие кнопок и т.д.).

Сторонники этого подхода приводят следующую аналогию: мы снабжаем наши дома электричеством при помощи электросетей и промышленных электростанций, а не домашних генераторов.

Облачные сервисы позволяют потребителям заменить свои компьютеры потребительского класса, которые редко обновляются и продаются с наценкой розничных магазинов, на “абсурдно мощные” (по словам Джеффа Безоса) машины корпоративного уровня, которые более эффективны в пересчете на единицу вычислительной мощности и легко заменяются.

Это означает, что в теории вы могли бы поиграть в  Cyberpunk 2077 во всей его красе как на iPhone за 1500 долларов, так и на старом холодильнике с поддержкой Wi-Fi и встроенным дисплеем.

Другой подход предполагает, что нам лучше сделать ставку на достижения в области локальных вычислений, а не на удаленные суперкомпьютеры, которые могут сталкиваться с проблемами из-за ненадежных сетей (см. Часть 2).

Облачный рендеринг и потоковое видео — привлекательная идея, но этот метод также существенно увеличивает объем данных, которые необходимо передавать с низкой задержкой.

Как упоминалось ранее, игровой контент рассчитан как минимум на 60 кадров в секунду (более чем в два раза выше стандарта для видео), а в идеале до 90-120 кадров в секунду с разрешением от 2K до 4K.

Обеспечить это одновременно и с низкой задержкой для всех участников Метавселенной — действительно очень сложная задача. И тут аналогия с электроснабжением начинает рушиться — электроэнергия всегда поступает в наши дома в достаточном количестве и без задержек.

И даже при сверхнизкой задержке имеет мало смысла передавать данные дополненной реальности в потоковом режиме (вместо обработки на локальном устройстве), учитывая скорость с которой движется камера и поступают новые входные данные (т.е. буквально со скоростью света).

Учитывая то, какие вычислительные мощности требуются дополненной реальности, вполне вероятно, что наши персональные / мобильные устройства смогут достаточно хорошо справляться с рендерингом в режиме реального времени.

Облачные вычисления

“Попытки осуществлять обработку данных в реальном времени с помощью удаленных вычислений всегда были обречены на провал. Даже учитывая увеличение пропускной способности и снижение задержки, локальные вычисления развиваются быстрее.” 

Удаленные вычисления также до сих пор не доказали свою эффективность для рендеринга. Это связано с тем, что облачные графические процессоры не генерируют общую вычислительную мощность. Каждый из них является “заблокированным инстансом”. Один графический процессор, удаленный или локальный, способен обеспечить рендеринг только для одного пользователя.

Никто еще не придумал, как эффективно, экономично и с учетом современных требований к разрешению и частоте кадров распределить ресурсы для рендеринга между несколькими пользователями сродни тому, как электроэнергия распределяется между несколькими жилыми домами, или как один CPU-сервер обрабатывает входные данные, местоположение и данные синхронизации ста игроков в королевской битве.

В результате облачным сервисам обычно приходится наперед планировать свою работу с учетом перепадов спроса. Такому сервису может потребоваться 75 000 выделенных серверов для того чтобы удовлетворить спрос жителей Кливленда в воскресенье вечером, но только 4000 серверов в 4 часа утра в понедельник.

Как потребитель, вы можете купить графический процессор за 400 долларов и использовать его только тогда, когда вам это нужно. Но экономика дата-центров ориентирована на оптимизацию использования вычислительных ресурсов с учетом изменений спроса.

Вот почему AWS предоставляет клиентам сниженную ставку, если они заранее арендуют серверы у Amazon (“зарезервированные инстансы”). Клиенты получают гарантированный доступ на следующий год, потому что они заплатили за сервер, а Amazon получает разницу между его стоимостью и ценой клиента (самый дешевый зарезервированный инстанс AWS Linux GPU, эквивалентный PS4, стоит более 2000 долларов за год).

Если клиент хочет воспользоваться серверами AWS непосредственно в тот момент, когда они ему нужны (“спотовые инстансы”), он может обнаружить, что они недоступны, или доступны только более слабые GPU, или доступны только GPU в другом регионе, что означает большую задержку.

Если эта модель окажется успешной, цены снизятся, но аренда высокопроизводительных графических процессоров с низким уровнем использования и корпоративной наценкой всегда будет стоить дорого.

Центры обработки данных также выделяют большое количество тепла, и для их охлаждения требуется дорогостоящая энергия. А переход от облачных потоковых данных к контенту с высоким разрешением и высокой частотой кадров также означает существенное увеличение затрат на обеспечение необходимой пропускной способности. Все это — дополнительные издержки в сравнении с локальными вычислениями.

И особенно примечательно то, что процессоры потребительского класса совершенствуются намного быстрее, чем сети, поскольку их гораздо чаще обновляют, и им не приходится буквально соревноваться со скоростью света.

Это не позволит свести к минимуму все ограничения сетевых технологий, но отсюда можно сделать вывод, что нам лучше переложить больше вычислительных задач на клиентские устройства, нежели передавать большие объемы данных в потоковом режиме. Со временем это может измениться, но, скорее всего, в обозримом будущем “закон Суини” по-прежнему будет актуальным.

Производительность IPhone

Рост производительности процессоров IPhone.

Переферийные вычисления часто рассматривают как ключевую инфраструктурную стратегию для Метавселенной.

В частности, эта модель предполагает развертывание суперкомпьютеров на ключевых сетевых узлах между потребителями и удаленными центральными серверами. Периферийные вычисления дополняют оба вышеперечисленных подхода, поскольку позволяют конечным пользователям дополнить мощности своих локальных устройств, одновременно сводя к минимуму задержку и риск перегрузки сети.

Прикладная ценность этого подхода пока не до конца ясна.

Например, xCloud от Microsoft использует стандартные дата-центры Azure, а не периферийные вычисления. Вероятно, это связано с вышеупомянутыми проблемами с использованием облачных сервисов — чем больше у вас периферийных центров, тем ярче выражены эти проблемы.

Большинство потребительских сервисов, использующих периферийные вычисления, например Netflix, на самом деле используют их в качестве периферийного жесткого диска, чтобы хранить данные ближе к пользователю.

Основатель и генеральный директор Cloudflare Мэтью Принс утверждает, что потенциал периферийных вычислений лежит в другой области.

По мере того как Интернет будет становиться все более фрагментированным из-за вмешательства регулирующих органов, требующих локальной обработки пользовательских данных, у компаний не останется иного выбора, кроме как разместить хранилища и центры обработки этих данных ближе к пользователю.

Скорее всего, то же самое будет и справедливо и для Метавселенной; нормативные требования (будь то GDPR или CCPA), скорее всего, со временем будут становиться только более обременительными, как это уже давно происходит в Китае и России.

И хотя Google твердо верят в периферийные вычисления, Apple считают, что роль периферийных устройств в будущем возьмут на себя все более мощные мобильные телефоны, поскольку они будут выполнять большую часть вычислений для других устройств, таких как смарт-часы и очки дополненной реальности.

Но даже если мы повысим вычислительную мощность потребительских устройств, разместим больше корпоративных вычислительных ресурсов ближе к потребителям и создадим более централизованную инфраструктуру, этого все равно, вероятно, будет недостаточно.

Вот пример, который потряс меня в начале этого года.

С декабря 2020 года по март 2021 года Genvid Technologies (портфельная компания) проводила свое первое массовое интерактивное живое медиа событие (MILE) на Facebook Watch.

Проект под названием Rival Peak, представлял собой своего рода виртуальное реалити-шоу в котором объединились элементы таких шоу как American Idol, Big Brother и LOST. На протяжении тринадцати недель зрители в режиме 24/7 могли наблюдать за дюжиной участников-ИИ, которые попали в ловушку в вымышленной локации на северо-западе США.

Хотя каждым персонажем управлял ИИ, а не отдельный пользователь, десятки тысяч зрителей могли влиять на симуляцию в режиме реального времени — например, решать загадки, чтобы помочь “участникам” шоу выбирать, что они могут сделать, и даже влиять на то, кто из участников выживет.

Rival Peak никогда не смог бы работать на потребительском устройстве. Проект был способен поддерживать такое количество одновременных пользователей, несмотря на задержку, потому что он был разработан для взаимодействия с низкой задержкой.

На самом деле Rival Peak едва хватало возможностей AWS.

Компания использовала 8 окружений (для производства, разработки, тестирования, контроля качества и резервного копирования) и для этого ей требовалось более дюжины графических процессоров и сотни CPU. В какой то момент команда Rival Peak столкнулась с нехваткой GPU-серверов AWS. А во время тестирования они регулярно задействовали все доступные спотовые серверы.

Rival peak

Rival Peak 2

Системная архитектура Rival Peak

Поскольку в Rival Peak не было конкретных игроков (не говоря уже о “первом игроке”), проект не вполне вписывается в определение Метавселенной.

Однако постоянный и бесконечный виртуальный мир, поддерживающий неограниченное число взаимодействий, где каждое действие имеет долгосрочные последствия, как нельзя лучше соответствует этому определению. Но даже в зачаточном состоянии и без необходимости обрабатывать значительный объем данных на стороне потребителя, такой мир сталкивается с нехваткой вычислительных ресурсов.

Только представьте, что потребуется для реализации идеи Nvidia о взаимосвязанном зеркальном мире. Или для того чтобы создать полную симуляцию геометрии реального города, а затем настроить все, от работы светофоров, до волн 5G, чтобы оптимизировать поток людей и информации в режиме реального времени.

Например, для их следующего MILE (еще не анонсированного на момент написания статьи), Genvid потребуется на 200% больше CPU и GPU.

Децентрализованные вычисления

Неутолимая потребность в ресурсах для обработки данных — в идеале расположенных как можно ближе к пользователю, но даже вблизи промышленных серверных ферм — неизменно наводит на мысль о децентрализованных вычислениях.

Учитывая то, сколько мощных и зачастую неактивных устройств находится в руках потребителей, кажется неизбежным, что рано или поздно мы найдем способ эффективно использовать эти незадействованные вычислительные ресурсы. По крайней мере, в культурном плане эта идея уже достаточно понятна.

Любой, кто устанавливает солнечные батареи у себя дома, может продавать избыточную энергию своей местной сети (и, косвенно, своему соседу). Илон Маск предрекает будущее, в котором ваша Tesla не просто простаивает в гараже большую часть времени, а приносит вам дополнительный доход как самоуправляемое “роботакси”.

В 1998 году, когда мы выпустили первую часть игры Unreal, в моем списке задач была один забавный пункт: сделать так, чтобы игровые серверы могли общаться друг с другом, и мы смогли позволить неограниченному количеству игроков участвовать в одной игровой сессии. Похоже, мы по прежнему стремимся реализовать эту идею. Создание игры, в которую смогут играть миллионы игроков, все вместе в одном общем мире — это сейчас одна из самых интересных задач в игровой индустрии.Тим Суини (2019)

Фактически, уже в 1990-х годах появились проекты, которые использовали потребительское оборудование для распределенных вычислений.

Проект SETI@HOME университета Беркли, использует вычислительные ресурсы на компьютерах добровольцев для поисков внеземной жизни.

Более поздние концепции блокчейна, включая смарт-контракты и токены, обеспечивают экономическую модель для такого обмена.

В этой концепции владельцы недостаточно используемых процессоров и графических процессоров могут предоставлять другим людям их вычислительные ресурсы (возможно, пользователям, расположенными “рядом” с ними в топологии сети) и получать за это криптовалюту. Это может быть реализовано в формате аукциона, где в качестве предмета торгов могут выступать либо задачи, для которых требуются вычислительные мощности, либо сами вычислительные ресурсы.

Децентрализованные вычисления

Одним из примеров работы такого механизма является Render Network компании OTOY.

В Octane Render, первом решении для физически точного рендеринга на базе GPU, впервые была достигнута такая скорость работы, которая позволяла  изменять сцены в режиме реального времени. Но чтобы его пользователи (в том числе студии визуальных эффектов, художники, аниматоры, дизайнеры, архитекторы и инженеры), могли воспользоваться этими прорывными возможностями, им нужны были мощные средства для обработки данных в реальном времени.

OTOY создали на базе Ethereum сеть и токен RNDR, чтобы использовать мощности незадействованных графических процессоров.

В качестве альтернативы дорогостоящим услугам облачных сервисов, клиенты могут отправлять задачи на рендеринг сети компьютеров, выплачивая их владельцам компенсацию в виде токенов. Протокол автоматически осуществляет все переговоры и заключение контрактов между сторонами в течение нескольких секунд. При этом ни одна из сторон не знает личных данных другой стороны или специфики выполняемой задачи.

В конечном счете мы приходим к осознанию того, что блокчейн на самом деле является общим механизмом для запуска программ, хранения данных и осуществления транзакций. Это надмножество всего, что существует в вычислительной технике. В конце концов мы придем к тому, что будем рассматривать его как единый распределенный компьютер, который работает в миллиард раз быстрее, чем наши настольные компьютеры, поскольку объединяет в себе их все.Тим Суини (2017)

Сможет ли нечто подобное стать источником вычислительных мощностей, необходимых для Метавселенной?

Представьте, что, пока вы перемещаетесь по захватывающим виртуальным пространствам, ваш аккаунт постоянно отправляет вычислительные задачи свободным мобильным устройствам, которыми владеют окружающие вас люди (возможно, прохожие на улице рядом с вами), чтобы визуализировать или анимировать события, с которыми вы сталкиваетесь.

Конечно, позже, когда вы не будете использовать свой собственный девайс, вы будете зарабатывать токены таким же образом.

Сторонники этой концепции криптообмена считают, что такой функционал будет неотъемлемой частью всех будущих микрочипов. Каждый компьютер, каким бы он ни был, будет спроектирован так, чтобы всегда выставлять на аукцион незадействованные вычислительные ресурсы.

Миллиарды динамически сгруппированных процессоров будут выполнять глубокие вычислительные циклы даже для крупнейших промышленных заказчиков и обеспечат бесконечную вычислительную сеть, которая будет питать Метавселенную.

Блокчейн останется с нами надолго, и он станет фундаментальной новой формой вычисленийДженсен Хуанг (2018)
Канал в Telegram: Рады подарить вам постоянную скидку 20% на спотовые комиссии на бирже Binance:

(по ссылке вы получите постоянную скидку 20% на спотовые комиссии и 10% в секции фьючерсов на бирже Binance, возможна покупка криптовалюты с карт Visa/Mastercard/МИР и платежных систем Qiwi и других)

С оригинальным материалом вы можете ознакомиться здесь.

Вы бы отдали свободные вычислительные мощности своего мобильного телефона или ноутбука в обмен на токены? Ответить можно в комментариях ниже.

  • Наша методика расчета рейтинга учитывает следующие параметры: объем торгов за 24 часа, индекс доверия и соотношение числа положительных отзывов к общему числу отзывов.