id
int64 4
1.1M
| title
stringlengths 3
183
| content
stringlengths 101
217k
|
---|---|---|
983,540 | R&D-центр Intel в Нижнем Новгороде: от беспилотных авто до 5G | На прошлой неделе компания Intel пригласила прессу в свой нижегородский центр разработок и исследований (R&D) — одно из крупных и важных подразделений компании, которое занимается в первую очередь разработкой ПО. Не то чтобы был какой-то особый повод, нет. Просто центр последнее время быстро расширяется, на носу 20-летний юбилей, работа кипит, и скоро-скоро появятся новые продукты. Если для вас почему-то новость, что важное подразделение Intel есть в РФ — в Нижнем Новгороде почти 700 человек, и это в основном разработчики, а в Москве более 150 сотрудников (маркетинг и развитие бизнеса), то вкратце напомним историю. В 1991 году Intel открыла первое представительство в Москве в целях охватить новый для себя рынка.
А уже через пару лет местные программисты стали получать заказы на разработку софта для корпорации. Большим плюсом для компании и тогда, и сейчас была относительно недорогая, но в то же время очень качественная рабочая сила. Собственно процесс был организован очень просто — контрактные сотрудники получали от заокеанских коллег полные спецификации того, что и как нужно было сделать, в какие сроки. Сиди да работай. Правда, на практике всё оказалось не так уж радужно. Такой подход, до сих пор активно применяемый в аутсорсе, нередко приводит к значительным накладным расходам. Даже просто коммуникация затруднена из-за разницы в 11 часовых поясов — работать приходится почти в противофазе. И любой вопрос выливается в затянутую переписку.
Кроме того, со временем местные специалисты всё чаще стали интересоваться, а для кого и для чего предназначены создаваемые ими библиотеки и программы: не стоит ли добавить одни функции и убрать другие, где ещё можно использовать код, как сделать работу удобнее? В конце концов, в 2000 году появилось собственное подразделение Intel в Нижнем Новгороде. Бывшие контракторы стали полноценными сотрудниками корпорации, получив и все бонусы трудоустройства, и в то же время все обязанности. Руководство R&D центра особо подчёркивает операционную автономность. Все вопросы — и бытовые, и рабочие — решаются на месте, без обращений в головной офис, что сильно упрощает и ускоряет работу в целом, а заодно экономит время и деньги.
Среди других ключевых дат отмечается 1997 год — год начала сотрудничества с российскими университетами, которое связано и с подготовкой кадров для Intel, и с НИОКР, и с взаимодействием с научными заведениями вообще. Сейчас всё это вылилось в программы стажировки и интернатуры, работу с кафедрами и преподавателями, летнюю школу Intel и онлайн-курсы, тренинги и так далее. В 2016 году российский центр поглотил разработчика систем компьютерного зрения itseez и создателей новой процессорной архитектуры VISC — компанию Soft Machines. Сейчас нижегородский центр полностью ответственен за ряд глобальных продуктов. И речь именно о готовых продуктах, потому что мало написать и протестировать код. Его надо упаковать, интегрировать с другими продуктами, а также поддерживать и обновлять.
О части продуктов мы рассказывали ещё в 2015 году. System Studio для встраиваемых систем, Parallel Studio XE для параллельного программирования и Media Server Studio создаются именно в Нижнем Новгороде, но это лишь малая часть ПО, SDK и библиотек. После поглощения itseez уже в составе Intel появился продукт OpenVINO. Всё это ключевые направления экспертизы R&D-центра: ИИ, компьютерное зрение, большие данные. Впрочем, эти инициативы укладываются и в общий вектор развития компании. Intel старается создавать не только и не столько «железо», сколько платформу для решения задач, связанных с обработкой данных. Что, впрочем, неудивительно.
И Intel, и другие производители микроэлектроники уже давно столкнулись с замедлением роста вычислительной мощности. И если в 90-х при нехватке скорости достаточно было подождать полгода-год и получить в два раза более производительный процессор, что перекрывало все нужды, то сейчас такой трюк уже не проходит. С другой стороны, даже при отсутствии скачкообразного роста скорости одного ядра в конечном итоге вычисления становятся дешевле и доступнее. Посмотрите на современные смартфоны, сравните их с ПК десяти- или пятнадцатилетней давности. И посмотрите на стремительный рост облачных провайдеров. Ресурсов-то на самом деле много, но их надо грамотно использовать на всех уровнях. И данных, что тоже важно, также уже немало. Вот тут-то на первый план и выходит софт.
Intel ставит перед собой задачу максимально облегчить труд программистов, которые по возможности не должны глубоко копаться в особенностях архитектуры каждого нового чипа. Напротив, максимум оптимизации должен делать компилятор. Нужны профилировщики, нужны готовые библиотеки с подходящими алгоритмами. При этом у создателей этих средств разработки есть своеобразный симбиоз с создателями «кремния». С одной стороны, они всё знают о новых кристаллах задолго до их выхода на рынок, чтобы в момент выпуска продукта у клиентов уже были все средства для работы их ПО на новом железе. С другой — теперь уже сами разработчики софта влияют на архитектуру новых чипов. По их просьбе появляются новые инструкции, меняется строение некоторых блоков.
Заметьте, речь идёт не только о привычных x86-процессорах. Напротив, вычисления сейчас гетерогенные, что только добавляет сложности в разработке. Кроме того, производительность сама по себе не всегда важна. Не стоит забывать и об энергопотреблении, например. Хороший пример – это беспилотные автомобили. Тут и огромные потоки данных (терабайты в сутки), и целый набор разных архитектур, и жёсткие требования к скорости реакции автомобиля на дорожную ситуацию. Шутка ли, лимит составляет всего 40 мс! Строго говоря, про Intel Go Automotive SDK мы тоже уже рассказывали пару лет назад — и тоже по мотивам поездки в нижегородский центр. Во многом это проект именно локальный: разработчики просто посмотрели, где ещё можно применить уже имеющиеся наработки в области высокопроизводительных библиотек. А в итоге родился совместный проект с BMW.
К 2021 году должен появиться готовый продукт с четвёртым уровнем автономности. Ещё через год – первые тесты 5-го уровня. Что это означает, если говорить простыми словами? Нулевой уровень – это обычный, старый автомобиль, где вообще всё зависит только от водителя. Второй-третий уровень уже добавляет некоторые удобства, облегчающие вождение: различные системы курсовой устойчивости, адаптивного круиз-контроля, автоостановки, паркинг-помощники и так далее. В любом случае это не автопилот, так как водитель обязан следить за дорогой, перехватывать управление и самостоятельно принимать решения в критической ситуации. Следующий уровень предполагает автономность в ограниченных условиях, например беспилотное вождение на автостраде (где более-менее понятны общие правила игры, есть разметка и знаки) с плавным уходом на обочину и остановку в случае, когда от водителя нет реакции на текущую ситуацию.
View this post on Instagram✴
#Rinspeed #Snap — #концепт #авто #selfdriving #driverless #car #MWC2019 #mwc #3dnewsru #3dnews
Но все ждут, конечно, пятый уровень, который может изменить многое. В этом случае органы управления в принципе уже не очень нужны — изменится не только внутренний и внешний дизайн авто, но и сам подход к владению автомобилем, к среде вокруг. Например, исчезнет проблема с поиском парковки: вы жмёте на кнопку, машина приезжает, отвозит до нужного пункта, высаживает и сама уезжает на сколь угодно далёкую парковку, где и будет дожидаться следующего вызова. Правда, будут и правовые коллизии — на первых порах уж точно. Кто виноват в случае аварии? Владелец, производитель или разработчик ПО? Собственно, многие считают, что именно законы будут тормозить развитие беспилотных авто, а не техника. Вся техника сводится к обработке данных.
Первый этап — информатизация, которая подразумевает в большей степени сбор и хранение информации, — многими давно пройден. Теперь пора заняться грамотным использованием. Обратите внимание, что теми же беспилотными автомобилями занялись именно обладатели огромных массивов различных данных — Google, «Яндекс», Baidu. Да та же Intel называет себя data company (нет, я так и не придумал корректный перевод этого на русский язык), а не просто разработчиком железа и софта и старается выстроить единую платформу, охватывающую и связывающую между собой весь спектр устройств — от датчиков и встраиваемых систем через промежуточные шлюзы с предобработкой данных до решений для дата-центров, где вся эта информация будет окончательно обрабатываться.
Это всё касается и ещё одного важного направления работы нижегородского центра — ИИ в целом и компьютерного зрения (CV) в частности. Опять-таки в связке с автопилотом, но не только. Сюда же попадают и камеры наблюдения, и БПЛА, и множество других устройств и проектов. В этой области Intel в последние годы скупила множество компаний как более общего профиля, так и прямо связанных с CV: Movidius (Myriad), Mobileye (чипы EyeQ5 как раз заняты предобработкой видео с камер в проекте BMW), Nervana и даже Altera, которая всё-таки более «универсальная» со своими FPGA. Упомянутая выше itseez, известная своим участием в OpenCV, тоже входит в эту обойму и отвечает за разработку ещё одного продукта с отечественными корнями и теперь уже открытым исходным кодом — OpenVINO (Open Visual Inference and Neural network Optimization).
OpenVINO представляет собой набор сразу нескольких программных компонентов, необходимых, если коротко, для подготовки и запуска нейронных сетей на всём разнообразии аппаратного обеспечения как самой Intel, так и других компаний. Ещё одна важная часть OpenVINO — это так называемый зоопарк моделей, которые включает несколько десятков разнообразных готовых наборов данных. Нужен он для быстрого прототипирования и оценки производительности аппаратных платформ. Собственно тренировки нейронок OpenVINO не касается — пользователь волен брать для этих целей практически любые популярные железо и фреймворки. Зато он помогает оптимизировать готовые натренированные модели. Оптимизация, вообще говоря, может быть разной — в зависимости от задач. Для встраиваемых систем обычно нужно соблюсти баланс между размером модели, потреблением памяти, скоростью работы и точностью. Добиться этого можно, например, исключением промежуточных слоёв, снижением точности самых вычислений.
OpenVINO позволяет это сделать. И он же позволяет сконвертировать оптимизированную модель для запуска на различном оборудовании с учётом его специфики и для использования всех аппаратных возможностей по ускорению работы модели. Естественно, для собственных продуктов Intel — CPU, VPU, FPGA, ASIC — адаптация лучше всего. Но есть и поддержка GPU и железа других вендоров, которые при желании могут сами улучшить её. Почему такой софт важен для Intel, если не учитывать спецпродукты для CV и ИИ? Секрет прост: по словам компании, до 80 % готовых моделей запускаются вовсе не на специализированном железе, а на обычных x86 CPU — из-за простоты развёртывания и масштабирования. Да, тренировка происходит на GPU, и в этой области Intel пока ничего предложить не может.
В качестве иллюстраций работы подразделения Intel Vision в целом приводятся понятные простым пользователям примеры из области медицины. Примечательная цифра на слайде ниже про ускорение в 188 раз на задачах определения костного возраста объясняется довольно просто: не слишком удачное строение готовой модели размером около 1 Тбайт, которую не каждый сервер сможет «переварить». Но в целом распознавание изображений в медицине с целью предварительной и быстрой диагностики сейчас очень популярно, равно как и то же распознавание в режиме реального времени для целей мониторинга и безопасности. Там же, в Нижнем Новгороде, компания показала несколько простых CV-демок для видео с веб-камер: определение лица и направления взгляда глаз, детектирование и классификацию объектов, распознавание текста, идентификацию людей по лицу, построение ragdoll-моделей людей.
Наконец, вкратце стоит упомянуть ещё об одном направлении работы R&D-центра, опосредованно связанном и со всеми остальными проектами, — это о 5G. Да, в Нижнем Новгороде работают радиофизики, которые напрямую участвуют в создании стандартов и реализации мобильных сетей следующего поколения. Вообще говоря, группа была сформирована ещё в 2002 году. В частности, она участвовала в стандартизации Wi-Fi 802.11n, WiMax, WiGig и нынешних сетей 4G. Ну а сейчас занимается развитием 5G, чтобы в конечном итоге получить преимущества и в разработке всё тех же беспилотных авто, и в связывании упомянутой выше иерархии устройств как минимум на этапе встраиваемых систем и шлюзов для них.
Последний пункт программы тура в R&D-центр — посещение лаборатории — оказался самым интересным, но… Вот ведь какое дело: про уже вышедшие продукты рассказывать смысла нет, а про ещё не вышедшие нельзя (и даже фото и скриншоты не показать). Так что придётся ограничиться словесным описанием. В лабораторию попадают свежие образцы железа, порой задолго до выхода на рынок. Там они тестируются и сами по себе, и совместно с другими устройствами. Это касается и потребительских продуктов, и серверных — в центре есть собственный небольшой ЦОД для внутренних нужд и для удалённого тестирования силами заказчиков и потенциальных клиентов. Лаборатория работает на нужды не только России, но и всего региона EMEA. Таких лабораторий, в общем-то, у Intel не так уж много по всему миру.
**Заключение**
R&D-центр в Нижнем Новгороде — далеко не единственный пример того, как благодаря энтузиазму локальных разработчиков из небольшой аутосорс-команды рождалось полноценное подразделение, со временем разраставшееся и становившееся автономным. Ну и строго-то говоря, в разное время в РФ у Intel были локальные офисы в Санкт-Петербурге, Новосибирске и Сарове, с которого всё и началось когда-то. В рамках консолидации они были расформированы, а часть команд либо ушла, либо присоединилась к текущим подразделениям, а то и вовсе перебралась в заграничные офисы. Но хотелось бы обратного — не открытия подразделений крупных корпораций в России, пусть и очень важных, а появления таких же офисов отечественных компаний такого же масштаба, но за рубежом. Мечты? |
983,583 | Anthem — прощальный гимн? Рецензия | |
Жанр |Экшен
|
Издатель |Electronic Arts
|
Издатель в России |EA Russia
|
Разработчик |BioWare
|
Минимальные требования |Процессор Intel Core i5-3570 3,4 ГГц/AMD FX-6350 3,9 ГГц, 8 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 2 или 3 Гбайт памяти, например NVIDIA GeForce GTX 760/AMD Radeon R9 280X, 50 Гбайт на жестком диске, интернет-соединение и учетная запись в Origin
|
Рекомендуемые требования |Процессор Intel Core i7-4790 3,6 ГГц/AMD Ryzen 3 1300X 3,5 ГГц, 12 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 6 или 8 Гбайт памяти, например NVIDIA GeForce GTX 1060/AMD Radeon RX 480
|
Дата выхода |22 февраля 2019 года
|
Возрастной ценз |от 18 лет
|
Платформы |PC, PlayStation 4, Xbox One
|
Официальный сайт *Игра протестирована на PlayStation 4*
Про некоторые игры говорят, что достаточно провести в них около часа, и все станет понятно: ничего нового не появится, геймплей останется прежним, да и история не стоит того, чтобы ради нее задерживаться. Самый яркий и свежий пример — Just Cause 4, где уже после первого ролика неинтересно следить за сюжетом, а вступительные миссии настолько идиотские, что куда веселее просто бегать и взрывать красные бочки и цистерны. Так же можно охарактеризовать и Anthem — пройдя первые два или три задания, вы увидите практически все, что игра способна предложить. И это не преувеличение.
**Не судьба**
Главная проблема Anthem заключается в том, что со времен первой Destiny прошло почти четыре с половиной года, а коллектив BioWare будто бы не знал о существовании такого шутера и сотворил нечто похожее, по пути повторив те же ошибки, что совершила Bungie. Ведь суть, несмотря на разницу в игровом процессе, одна и та же: вы проходите основную сюжетную линию, потом отправляетесь в «данжи», ставите все более высокий уровень сложности, гонитесь за мощнейшей экипировкой и ждете следующее обновление с дополнительными трофеями.
Если вы проходили первую Destiny, то наверняка помните тамошние проблемы с дизайном миссий. Примерно каждое второе задание требовало подносить Призрака к какому-то объекту и оборонять его от волн врагов, пока он что-то там сканирует или взламывает. В BioWare наступили на те же грабли, поэтому защищать объекты на протяжении нескольких минут в Anthem предстоит постоянно. Есть ли в игре что-то, кроме этого? Есть. В каких-то заданиях вам предлагают собирать обломки, пользуясь радаром, и относить их в заданную точку, а в других просят пролетать через зависшие в воздухе штуки и точно так же доставлять их в нужное место. Из таких поручений состоят абсолютно все здешние миссии.
Даже в финальной битве, которая вроде как должна быть эпическим завершением истории, просят собирать эти дурацкие обломки! В некоторых эпизодах нужно также решать «загадки», но даже в God of War они были труднее. Здесь лишь необходимо найти на стене огромный символ и повернуть фигурку на постаменте или вовремя остановить колесо с изображенными на нем значками. Никаких зрелищных эпизодов, запоминающихся битв и впечатляющих разрушений не будет. Просто летайте от одного маркера к другому и старайтесь не зевать.
В какой-то момент игра пытается предложить что-то новое: просит посетить четыре крепости и выполнить несколько поручений. Жаль, что об этом не предупреждают заранее, ведь Anthem требует от вас 50 убийств в ближнем бою, 15 собранных в открытом мире сундуков, 5 случайных событий и многое другое, на что вы в итоге потратите два часа. Сто двадцать минут унылых полетов с поисками врагов, сундуков и ресурсов. И делать это в кооперативе очень неудобно — сундук засчитывается лишь тому, кто его открыл, поэтому четыре человека в одном отряде только мешают друг другу. Самое смешное, что в итоге это вообще того не стоит — «крепость» представляет собой склеп, где рядом с трупом лежит бестолковая записка. Я потратил свое время, чтобы сэкономить ваше, дорогие читатели.
Уму непостижимо, как разработчики и тестировщики могли играть во все это и думать, что кому-то процесс покажется веселым. Однако на этом проблемы Anthem только начинаются — однообразные задания легко можно было бы игнорировать, если бы здесь был захватывающий сюжет, но нет и его. Вы — фрилансер, эдакий мальчик на побегушках, который на все просьбы кивает головой и ни разу не возмущается, когда в одной и той же миссии его просят летать из одного угла карты в другой. «Ой, я забыл, надо же еще починить кое-что в другом районе», — говорит по рации выдавший задание человек. «Отлично, сейчас туда отправлюсь», — жизнерадостно отвечает главный герой, а игрок сидит перед телевизором и мечтает, чтобы это поскорее кончилось.
Темп повествования постоянно сбивается, персонажи вроде бы харизматичны, но их имена вы не вспомните уже через пару дней — настолько они бесполезны для сюжета. Диалоги затянуты, все стремятся рассказать вам какие-то личные истории, вспоминают прошлые события в мире Anthem, о которых вы узнаете лишь после чтения здешней энциклопедии. Выбирать реплики в сюжетных диалогах нельзя — только в беседах за пределами основной истории. Влияние этого выбора на дальнейшие события минимально — разве что следующая фраза изменится. Кажется, что добавили такую «фишку» просто потому, что ее ожидаешь от игры BioWare.
Ну да ладно, старую студию не вернуть, да и жанр у Anthem совсем не тот, что у Mass Effect и предыдущих игр канадцев. Ради чего мы возвращались в Destiny и были готовы перепроходить одни и те же задания и рейды по много раз? Ради качественных трофеев. В рейдах в первой Destiny выпадали шикарные пушки: револьвер, взрывающий противников при попадании в голову, особенная мощная «скаутка», экзотическая фьюжн-винтовка, аналогов которой нигде не было. В Anthem же нет никаких уникальных видов оружия, а его внешний вид не меняется на протяжении всей игры. В Destiny даже у «зеленых» пушек, которыми вы пользуетесь от силы минут 15, а потом меняете на более мощные, были особые варианты внешнего вида.
Причина проста — в Anthem оружие является далеко не главным элементом экипировки фрилансера. Куда важнее способности его джавелина, на которых построена боевая система. Можно швырять гранаты, создавать энергетические поля, устанавливать огнеметы, причем важно объединять все это в комбинации — то есть покрывать противников льдом и заливать огнем или совмещать другие стихии. В таком случае урон будет огромным, что пригодится в борьбе с мощными оппонентами. Вот только улучшения джавелина не делают его другим и не сильно меняют игровой процесс, а лишь влияют на характеристики. Вам удастся сократить время восстановления способности, увеличить урон, однако все это ощущается донельзя буднично, скучно и «процентно». Возвращаться в одни и те же локации ради такого? Ну уж нет.
Зато сражаться с противниками весьма увлекательно, пусть они и невероятно тупы. Зависать в воздухе, обрушивать шквал ледяных осколков, комбинировать все это с мощными взрывами, наблюдать за пятью надписями «КОМБО» за каждое убийство — это весело. Здешняя система позволяет перевоплотиться в Железного человека, который в любой момент может высоко подлетать, наворачивать круги над полем боя и зрелищно расправляться с оппонентами, стоя на соседней скале. Однако на высоких уровнях сложности так полетать уже не получится — там враги наносят огромный урон, поэтому тихонько прятаться за укрытиями куда разумнее (и скучнее).
Вот и получается, что поводов задерживаться в Anthem попросту нет, тем более и разработчики пока что не сильно в этом заинтересованы. После прохождения сюжетной линии они предлагают или возвращаться к старым заданиям и раз за разом зачищать три крепости (которые настолько несбалансированны, что лучше проходить одну и ту же, простенькую, а не мучиться в трудных) на разных уровнях сложности, а также выполнять испытания ради никчемных наград. За то, что вы завершите 100 событий в открытом мире, пройдете 25 крепостей, 25 контрактов и 25 случайных миссий, вам вручат краску и жалкую горстку монет, на которую даже ресурсов не купишь. Что уж говорить об изменении внешнего вида — за это просят совсем баснословные суммы.
Это, кстати, еще один недостаток Anthem — предметов для изменения внешнего вида раз-два и обчелся. Вы можете купить один дополнительный шлем, поменять руки, ноги и туловище джавелина, и на этом все — ничего нового за прохождение миссий не упадет и в обычном магазине ничего не купить. Зато приобрести косметические предметы можно в «донатной» лавке, где за прохождение сюжета удастся купить набор лишь для одного джавелина, а рядом со стоимостью каждой вещи укажут, сколько она стоит в другой (платной) валюте. Магазин обновляется раз в неделю, а товаров в нем так мало, что выбрать толком нечего.
В такие моменты возникает ощущение, что на самом деле Anthem должна была быть совсем не той игрой, которой в итоге стала. Здесь нет мотивации собирать качественные трофеи, поскольку все они унылые и интереснее не станут. В центральной локации, куда вы возвращаетесь после каждой миссии, нет ни одного игрока, соответственно, и социальных элементов в проекте мало. А кооператив прикручен так криво, что во время миссий необходимо всегда летать рядом с отрядом, иначе в нижней части экрана будет все время появляться предупреждение о телепортации к союзникам. Постоянно одергивают, как собаку на поводке, еще и через загрузочный экран.
Загрузочные экраны, на которые не ругался только ленивый, не перестают вызывать недоумение вплоть до финала. Каждое задание грузится примерно по минуте, каждая пещера и крепость сопровождаются этими экранами. Вдобавок меню будто бы держатся на честном слове и открываются со скрипом и подтормаживаниями. И какие же они неудобные! Достаточно хотя бы вспомнить карту открытого мира, на которой нельзя ставить метки. А ведь игроки упрекали в этом Bungie еще много лет назад! Зачем повторять чужие ошибки, еще и такие дурацкие?
Очень обидно, что все так вышло, ведь вселенная у BioWare получилась сказочно красивой. Да, мир довольно однообразен и состоит лишь из джунглей и скал, но как же роскошно порой выглядят эти просторы! Пролетаешь сквозь водопад, устремляешься к небу, потом наклоняешься вниз, чтобы снизить температуру и избежать перегрева, — передвигаться тут очень приятно, особенно с такими качественными анимациями джавелинов. Вокруг снует симпатичная живность, летают виверны, погодные явления преображают атмосферу, листва на деревьях колышется... Просто рай.
А потом начинаешь проходить какое-то задание и спотыкаешься об игровой процесс. Одинаковые противники, почти не реагирующие на выстрелы. Непрекращающаяся бессмысленная болтовня по рации. Задания в духе «зажми “квадрат” и стреляй по волнам врагов». Невозможность сменить экипировку посреди задания — совершил глупость и взял дробовик с пистолетом, значит, мучайся дальше и подводи свою команду. Отсутствие нормального обучения — вам никто не скажет, как совершать комбо, и никто не объяснит, что под «мультиубийствами» в одном из испытаний подразумевается одновременное устранение пяти врагов, а не трех или четырех. Телепортирующиеся и исчезающие при стрельбе по ним противники. А после прохождения сюжета все становится еще хуже, когда понимаешь, что эндгейма попросту нет.
*******
Наверняка через несколько месяцев Anthem приведут в порядок: предложат какие-нибудь масштабные рейды, увеличат количество крепостей, введут новое оружие. Но у игры есть проблемы, которые не исправить контентными обновлениями. Хочется верить в светлое будущее BioWare, и наверняка студия была бы рада взять дополнительный год, если бы не желание Electronic Arts ублажить инвесторов. Однако если оценивать проект здесь и сейчас, не рассуждая об истории его создания и потенциальных нововведениях в будущем, то это разочарование. Даже для тех, кто от него ничего хорошего не ждал.
**Достоинства:** **Недостатки:**
|
|
По части графики ругать Anthem почти не за что, хотя иногда попадаются растянутые текстуры. В остальное время восхищаешься тем, как великолепно выглядит открытый мир.
|
|
Музыкальных композиций не так много, и все мы уже слышали в рекламных материалах. Актеры озвучения то радуют эмоциями, то уныло бубнят, что каждый раз режет слух.
|
|
Все миссии можно проходить соло, но игра для этого попросту не предназначена — так и скучнее, и дольше.
|
|
Во всё здесь позволяют играть с друзьями или случайными попутчиками, даже на самых высоких уровнях сложности. Подбор товарищей происходит очень быстро, но иногда люди лезут на трудные миссии неподготовленными.
|
|
У Anthem есть шанс в будущем стать хорошей игрой, но пока что это одно большое разочарование.
*Оценка: 4,0/10* **Видео:** **Ссылки по теме:** |
983,636 | Проще простого: 10 полезных «лайфхаков» для пользователей YouTube | Практически в любом программном продукте кроются свои секреты, y YouTube они, конечно же, тоже есть. При грамотном подходе можно не только существенно упростить с ним работу, но и задействовать его для решения различных задач. Подтверждением этому служит наша небольшая подборка полезных лайфхаков и малоизвестных функций YouTube, которые могут пригодиться всем пользователям популярного видеохостингового сайта.
**Как смотреть YouTube-ролики на старых компьютерах.** Ни для кого не секрет, что для комфортного просмотра размещённого в Сети мультимедийного контента необходим производительный ПК с широкополосным интернет-подключением. Ежели такового под рукой нет, то справиться с ситуацией поможет бесплатный плеер CherryPlayer , разработанный с прицелом на вычислительные машины не первой свежести с операционной системой Windows на борту. Программа поддерживает взаимодействие с аккаунтами и плейлистами YouTube, позволяет проигрывать потоковое видео с выбранным качеством и кешировать загружаемые из Сети данные, а также оснащена средствами поиска и набором встроенных кодеков. Помимо этого, CherryPlayer умеет находить общий язык со множеством других сервисов и имеет в своём активе пару дополнительных функций, о которых мы упомянем чуть ниже. Плеер доступен для скачивания на сайте разработчика как в виде установочного дистрибутива, так и в формате portable-версии, которая может быть записана, например, на флешку. **Как сделать резервную копию канала ** **YouTube**. О важности резервного копирования данных лишний раз говорить не приходится, даже в случае с таким надёжным сервисом, как YouTube. Любое отклонение от правил видеохостинговой площадки, нарушение авторских прав или взлом пользовательского аккаунта могут привести к потере хранящихся на серверах сервиса роликов. Чтобы в таких случаях минимизировать риск необратимой потери данных, имеет смысл регулярно создавать копию своего канала YouTube, благо такая возможность имеется в настройках Google-аккаунта. Нужно всего лишь перейти по ссылке google.com/takeout, определить тип резервируемых данных YouTube (видео, плейлисты, подписки и так далее), выбрать желаемый формат архива и дождаться создания бекапа. При желании можно настроить автоматическое копирование файлов в облачные хранилища Google Drive, Dropbox, OneDrive и Box. **Как скачать субтитры из ** **YouTube-роликов. **Одной из сильных сторон YouTube является поддержка сопровождающих видеоряд субтитров, во-первых, помогающих смотреть видео людям с нарушением слуха, а во-вторых, благодаря системе распознавания разговорной речи и встроенному переводчику Google, здорово упрощающих просмотр фильмов и роликов на иностранных языках. YouTube позволяет просматривать текстовые расшифровки видео с привязкой транскрибированных фраз ко времени, но не предоставляет удобных инструментов для их скачивания. Обойти это ограничение можно с помощью онлайнового сервиса SaveSubs, позволяющего не только скачивать cубтитры в форматах SRT и TXT, но и переводить их на различные языки. Достаточно скормить сервису ссылку на YouTube-ролик, ну а дальше — дело техники. **Создание рингтонов из ** **YouTube-роликов. **С этой задачей лучше всего справится разработанная компанией iSkysoft программа iMedia Converter Deluxe, которая представлена в версиях для платформ Windows и macOS. Порядок действий простой: в окне приложения указываем ссылку на видео с приглянувшейся мелодией, извлекаем из YouTube-ролика аудиодорожку в выбранном качестве, далее во встроенном редакторе вырезаем нужный фрагмент и конвертируем его в подходящий для мобильного устройства формат. Если всё делать в темпе вальса, то выполнение перечисленных операций займёт не более пары минут. При этом сразу стоит оговориться, что iMedia Converter Deluxe распространяется по подписке и стоит определённых денег. **Мгновенное скачивание роликов ** **YouTube. ** Существует огромное количество способов переноса видеофайлов с YouTube на диск компьютера. Эта задача, к примеру, по зубам рассмотренным выше программам CherryPlayer и iMedia Converter Deluxe. Однако пока запустишь их на компьютере, пока найдёшь нужный пункт меню и активируешь процесс — столько времени пройдёт... Гораздо быстрее и эффективнее в таких случаях использовать специализированный сервис SaveFrom.net. Для работы с ним нет необходимости каждый раз набирать его адрес, достаточно всего лишь в URL просматриваемого ролика добавить «ss» перед youtube.com (см. поясняющий скриншот ниже) и нажать Enter. В результате произойдёт переадресация на сайт сервиса SaveFrom.net с готовыми ссылками для скачивания видео в различных форматах и качестве. **Создание ** **GIF-анимации из ** **YouTube-роликов. **По этой части софтверными разработчиками тоже изобретено множество инструментов, позволяющих буквально в два-три клика мышью конвертировать видеофайлы YouTube в анимационные картинки. Самым простым среди них, на наш взгляд, является сервис FreeGifMaker.me. Любителям более навороченных программных решений порекомендуем сервисы Giphy Gif Maker и Gifs.com. Методика работы с ними незамысловатая: вводим адрес ролика, немного колдуем с параметрами создаваемого GIF-изображения — и дожидаемся склейки кадров анимационной картинки. Готовые файлы можно загрузить на компьютер или использовать для публикации в социальных сетях. **Как извлечь аудиодорожку из ролика ** **YouTube. ** Для решения этой задачи пригодятся уже упомянутые в заметке программы CherryPlayer (бесплатная) и iMedia Converter Deluxe (коммерческая) — с их помощью не составит труда утянуть с просторов YouTube понравившуюся музыку. Если же времени в обрез и нет желания захламлять диск компьютера лишним софтом, то можно прибегнуть к онлайновому сервису 4K Download Online , позволяющему скачивать аудио с YouTube в форматах MP3, M4A и OGG. При работе с перечисленными инструментами следует помнить о существовании авторских прав на загружаемый из Интернета контент и не нарушать их. **Загрузка MP3-файлов на YouTube. **Владельцы каналов знают, что YouTube принимает к загрузке исключительно только видеофайлы, что вполне логично — ведь это видеохостинговый сервис, а не площадка для трансляции аудиоконтента. Тем не менее, из любого правила бывают исключения, и с помощью сервиса TunesToTube.com это ограничение можно легко обойти. Данный сервис на основе загруженного пользователем аудиофайла и выбранного статичного изображения создаёт видео со звуковой дорожкой и автоматически копирует его в YouTube. Воистину: всё гениальное просто! Таким образом можно размещать в сервисе музыкальные композиции без видеоряда, аудиокниги и диктофонные записи. **Расшифровка аудиозаписей с помощью YouTube. ** Благодаря встроенным **Распознавание музыкальных треков в YouTube. **Ну а завершают нашу подборку «лайфхаков» два простых способа идентификации композиций в видеороликах YouTube. Первый предполагает применение проверенного временем мобильного приложения Shazam, второй — установку расширения AHA Music для браузера Google Chrome. Оба продукта функционируют с использованием технологии акустических отпечатков и по отрывку композиции довольно точно определяют название песни, автора, исполнителя, альбом и многое другое. В общем, рекомендуем!
В заключение, раз уж речь сегодня зашла о YouTube, напомним читателям о существовании официального канала 3DNews Daily Digital Digest на этой площадке. На канале наши авторы и эксперты тестовой лаборатории размещают видеообзоры «железа» — ноутбуков, видеокарт, периферии и разных гаджетов. Ещё мы выкладываем обзоры новых игр, периодически стримим их и еженедельно публикуем GamesBlender — наш регулярный дайджест новостей игровой индустрии. Также на канале можно найти интересные ролики от разработчиков игр, которые мы переводим на русский язык: дневники о создании проектов, интервью и другой интересный контент. Подписывайтесь, чтобы ничего не пропустить! |
983,688 | MWC 2019: сети 5G как никогда близки к рядовым пользователям | Одной из главных тем выставки Mobile World Congress в последние годы являются сотовые сети пятого поколения, также известные как 5G. О данной технологии связи говорят уже довольно давно, и с каждым годом производители всё больше приближались к практической реализации своих разработок.
И вот теперь, на MWC 2019, стало окончательно понятно, что сети пятого поколения уже совсем рядом с нами, рядовыми потребителями. Во всяком случае, на этой выставке производители не только говорили о планах по развитию в области 5G и показывали свои прототипы и наработки, но и демонстрировали множество готовых устройств: от потребительских роутеров и смартфонов до крупных базовых станций и самого разнообразного телекоммуникационного оборудования.
Собственно, обо всех этих новинках, показанных на выставке MWC 2019, и пойдёт речь ниже. А в целом мы постараемся ответить на вопрос, на какой стадии развития сейчас находятся сети пятого поколения и когда же они станут общедоступны.
**Intel**
В рамках выставки MWC 2019 компания Intel представила ряд своих новых проектов, которые ориентированы на применение в телекоммуникационном и смежном оборудовании для создания сетей пятого поколения.
Одной из новинок Intel является устройство FPGA Programmable Acceleration Card (PAC) N3000. Как нетрудно догадаться по названию, это ускоритель вычислений на базе микросхемы FPGA, который предназначен для оптимизации производительности телекоммуникационного оборудования. По словам самой Intel, данное устройство позволяет ускорять выполнение различных рабочих нагрузок: от средств управления ядром 5G-сети до виртуализации сетей радиодоступа. При этом благодаря использованию FPGA возможна лучшая оптимизация программного обеспечения, за счёт чего можно снизить латентность и энергопотребление, тем самым повышая качество работы сервисов и уменьшая издержки.
Основой Intel FPGA PAC N3000 является матрица с 1,1 млн логических вентилей, которую дополняют 9 Гбайт памяти DDR4 и 144 Мбайт памяти QDR IV, предназначенной для выполнения высокопроизводительных задач. Есть тут и два сетевых контроллера Intel XL710, обеспечивающих пакетное обслуживание до восьми соединений с пропускной способностью 10 Гбит/с и до четырёх 2,5-гигабитных соединений. В целом же производитель утверждает, что FPGA PAC N3000 способна «ускорить» сетевой трафик до 100 Гбит/с. Поставки ускорителей Intel FPGA PAC N3000 начнутся уже в третьем квартале текущего года.
Следом были представлены новые процессоры Xeon D семейства Hewitt Lake. Новинки смогут предложить более высокую производительность, а также лучшую оптимизацию по сравнению с актуальным семейством Xeon D-1500 NS, к тому же они на аппаратном уровне защищены от уязвимостей Spectre и Meltdown. Данные чипы представляют собой SoC, то есть имеют интегрированный чипсет, и предназначены для использования в различном сетевом оборудовании, например, для ускорения обработки трафика.
Отметила Intel и успехи в сотрудничестве с другими компаниями на поприще 5G. Например, компании ZTE и Ericsson объявили о планах по использованию 10-нм однокристальных платформ Intel Snow Ridge в своём оборудовании, в частности в базовых станциях. Данные SoC были специально разработаны для использования в оборудовании для 5G-сетей и начнут массово производиться во второй половине 2019 года.
В свою очередь, компания Fibocom анонсировала новый модуль формата M.2 под названием FG100, в который интегрирован 5G-модем Intel XMM 8160. Данный модуль поддерживает работу в сетях третьего, четвёртого и пятого поколений, что делает его универсальным решением для различных задач. По словам производителя, максимальная скорость загрузки данных может достигать 6 Гбит/с при передаче в спектре миллиметровых волн (mmWave) и 4 Гбит/с при использовании спектра до 6 ГГц.
Новый M.2-модуль от Fibocom можно использовать в самых различных устройствах, начиная с потребительских устройств и заканчивая сетевым оборудованием вроде точек доступа и скоростных беспроводных шлюзов. Примечательно, что на своих стендах на выставке MWC компании Intel и Fibocom демонстрировали платформу от VVDN с похожим M.2-модулем Fibocom L860, который обеспечивает работу гигабитного LTE.
И здесь надо заметить, что устройствам с данным LTE-модулем, которые имеются в ассортименте D-Link, Gemtek и VVDN, можно будет очень легко добавить поддержу 5G. Достаточно будет лишь заменить имеющийся M.2-модуль новым Fibocom FG100, и устройство сможет сразу работать в сетях пятого поколения. Это должно значительно облегчить переход к новым стандартам связи. В этом году Fibocom планирует начать поставки лишь образцов своего нового модуля, а массовое производство стартует в 2020 году.
**Qualcomm **
Другим крупным игроком в области технологий сетей пятого поколения является компания Qualcomm, стенд которой располагался почти что напротив стенда Intel. И если последняя представила устройства для создания самих сетей пятого поколения, а также их работы, то компания Qualcomm решила показать потребительские решения.
На этой выставке Qualcomm обошлась без громких анонсов, связанных с 5G. За неё это сделали производители смартфонов, которые показали множество как готовых устройств, так и их прототипов с 5G-модемами Snapdragon X50. Но о них мы поговорим чуточку позже.
Потому как кое-чем новеньким Qualcomm всё же порадовала. Речь идёт об однокристальной платформе Snapdragon 8cx 5G, предназначенной для ноутбуков с постоянным подключением к Сети. По сути, новая SoC сочетает в себе представленный ранее процессор Snapdragon 8cx и модем Snapdragon X55, который и обеспечивает работу в сетях пятого поколения. Интересно, что также он даёт возможность работы в сетях 4G/LTE, 3G и 2G.
Нельзя не отметить, что платформа Snapdragon 8cx 5G — а точнее, её модем Snapdragon X55 — обеспечивает крайне высокую скорость передачи данных. Так, по словам производителя, при работе в сетях 5G пиковая скорость загрузки может достигать 7 Гбит/с, а для сетей LTE — 2,5 Гбит/с. Для сравнения: модем Snapdragon X50, использованный во многих смартфонах, обеспечивает пропускную способность до 4,5 Гбит/с.
Помимо высоких скоростей передачи данных, платформа Snapdragon 8cx 5G предлагает и высокую производительность. Здесь объединено восемь мощных ядер Kryo 495 и графический процессор Adreno 680. Их тактовые частоты не уточняются, но, с учётом использования платформы в ноутбуках, они не должны быть сильно ограничены. Имеется также поддержка памяти LPDDR4x-2133 и твердотельных накопителей NVMe и UFS 3.0. Есть и беспроводной модуль Wi-Fi 802.11ad и 802.11ac Wave 2, и Bluetooth 5.0.
А возвращаясь к теме смартфонов с 5G-модемами от Qualcomm, хотелось бы отметить, что их оказалось довольно много. Компании LG, Samsung, Xiaomi и ZTE показали уже готовые аппараты с модемами Snapdragon X50 и поддержкой работы в сетях пятого поколения. В свою очередь, компании Oppo, Sony и OnePlus пока что показали лишь прототипы своих устройств с поддержкой 5G. Скорее всего, финальные версии их смартфонов будут представлены позже в этом году.
Также Qualcomm показала на своём стенде различное оборудование с поддержкой сетей пятого поколения. Здесь оказались и Small Cell на базе чипа Qualcomm FSM100xx, и разнообразные модули с модемами Snapdragon X50 и X55, и различные потребительские роутеры, и множество других новинок.
**MediaTek **
Компания MediaTek также решила не отставать от более именитых производителей и показала на своём стенде свой собственный 5G-модем Helio M70, который был представлен в конце прошлого года.
Модем Helio M70 поддерживает работу не только в сетях 5G, но также и в сетях второго, третьего и четвёртого поколений. Заявлена скорость передачи данных до 5 Гбит/с в сетях пятого поколения, а также возможность одновременной работы с 5G и 4G.
Интересно, что новинка MediaTek уже нашла применение во множестве китайских смартфонов от таких производителей, как Doogee, Ulefone и прочих. Причём некоторые из них являются весьма странными устройствами. Например, есть «неубиваемые» смартфоны огромного размера, которые обладают поддержкой 5G и одновременно имеют встроенную голосовую рацию. Технологии, созданные с разницей примерно в 100 лет, встречаются в одном устройстве, что весьма интересно.
**Huawei**
Компания Huawei отличилась на выставке MWC 2019 анонсом самого инновационного смартфона в мире. Это, конечно же, Huawei Mate X, который выделяется своим гибким дисплеем. Но помимо этого, новинка стала первым смартфоном Huawei, у которого имеется поддержка сетей пятого поколения.
Реализована она силами модема Balong 5000, который был разработан Huawei самостоятельно. Во время презентации Mate X китайский производитель заявил, что, благодаря скоростям сетей 5G, скачать фильм объёмом 1 Гбайт можно будет за считаные секунды. Заметим, что модем Huawei является очень быстрым и обеспечивает скорость загрузки данных до 6,5 Гбит/с.
Также на своём стенде компания Huawei показала сам модем Balong 5000 и несколько устройств на его основе. Среди них оказалась довольно компактная мобильная точка доступа Huawei 5G Mobile WiFi, а также стационарные решения, вроде роутера Huawei 5G CPE Pro.
**Разное**
В целом же на выставке MWC 2019 было показано множество самых разных устройств, так или иначе связанных с сетями пятого поколения. На многих стендах встречались роутеры, точки доступа и прочие решения для работы с 5G.
Например, HTC показала весьма необычную точку доступа HTC 5G Hub. Новинка использует 5G-модем Snapdragon X50 и позволяет подключать к Интернету до 20 устройств посредством Wi-Fi. Но помимо модема здесь имеется мощный процессор Snapdragon 855, а также 5-дюймовый сенсорный дисплей, операционная система Android 9.0 Pie с надстройкой HTC Sense и батарея на 7660 мА·ч для работы в качестве мобильного решения.
Получается, что функционал HTC 5G Hub не ограничен лишь «раздачей Интернета». Можно и поиграть, и фильм посмотреть. Кстати, для последнего имеется и возможность вывода изображения на внешний монитор. Весьма неожиданные возможности для точки доступа.
**Заключение**
Как видно, технологии мобильной связи пятого поколения находятся уже совсем рядом с нами. Уже есть и смартфоны с поддержкой 5G, и различные роутеры с точками доступа, и всё необходимое телекоммуникационное оборудование. То есть производители уже готовы предоставить пользователям устройства с поддержкой новых стандартов, а операторам мобильной связи — соответствующее оборудование.
Получается, дело осталось за малым — дождаться развёртывания самих сетей пятого поколения. И ждать, кажется, осталось совсем немного. Многие страны уже ведут активную работу над созданием сетей 5G. На самом деле, в некоторых странах уже существуют коммерческие сети 5G, но пока что они небольшие. Однако в ближайшие годы мы будем наблюдать их активный рост.
В последнее время то и дело сообщается о заключении крупных контрактов на поставки базовых станций 5G и прочего, сопутствующего оборудования в те или иные страны. Даже конфликты некоторых стран с Китаем и, как результат, отказ от оборудования Huawei и других китайских производителей не сильно сказываются на темпах развития. Так что уже в этом году можно ожидать появления довольно обширного покрытия 5G в таких странах, как США, Южная Корея, Япония, Китай, а также странах Европейского союза.
А когда же 5G появится в России? Отечественные операторы довольно давно работают в данном направлении. Уже в этом году планируется создание тестовых или пилотных зон, в которых будет установлено покрытие 5G. Главной проблемой, которая тормозит развитие 5G в нашей стране, является нехватка соответствующих частот. Но постепенно и этот вопрос решается, в том числе и на государственном уровне.
Постепенно сети 5G в нашей стране будут развиваться и площадь покрытия будет расширяться. В Барселоне, на MWC 2019, несколько российских операторов подписали контракты с поставщиками телекоммуникационного оборудования. Такой контракт заключили Tele2 и Huawei, а МТС и Ericsson и вовсе договорились о запуске первых фрагментов 5G-сетей на территории России в этом году.
А уже к 2020 году планируется создание полноценных 5G-сетей на территории крупных российских городов. Будем надеяться, что развитие 5G в России, да и во всём мире, будет идти согласно намеченным планам и уже в ближайшие годы жители крупных городов начнут массово использовать новый стандарт связи, а чуть позже технологии доберутся и до городов поменьше. |
983,690 | Включаем DLSS в Battlefield V, Final Fantasy XV и Metro Exodus: качество картинки и быстродействие | Среди новых возможностей, которыми обладают видеокарты семейства GeForce RTX, первое место по праву занимает трассировка лучей в реальном времени. Но у чипов архитектуры Turing есть не менее важная функция — масштабирование изображения с помощью «искусственного интеллекта», которое позволяет снизить нагрузку на GPU и увеличить частоту смены кадров, причем в теории это должно происходить без видимых потерь в качестве изображения.
Когда NVIDIA представила первые модели GeForce RTX, о поддержке DLSS объявили не менее двадцати игровых проектов. В теории разработчикам проще внедрить в код графического движка этот метод, чем добавить трассировку лучей в реальном времени. Но пока только три игры продемонстрировали DLSS в деле — сперва Final Fantasy XV, затем Metro Exodus, а недавно и для Battlefield V вышел соответствующий патч. Кроме того, в 3DMark появился специализированный тест, который позволяет напрямую сравнить частоту смены кадров при рендеринге с DLSS и полноэкранном сглаживании по алгоритму TAA. Для каждого из этих приложений мы подробно проанализировали качество изображения и оценили быстродействие DLSS с различными настройками разрешения и трассировки лучей.
⇡#
**Что такое DLSS и как это работает**
Перед тем как мы приступим к анализу качества и производительности DLSS, нужно пояснить, что же представляет собой новая инициатива NVIDIA и чем она ни в коем случае не является. Аббревиатура DLSS означает Deep Learning Super Sampling, то есть рендеринг с избыточной выборкой при помощи глубинного обучения, но это название может ввести в заблуждение, если не знать, как технология работает в действительности.
Задача DLSS состоит в том, чтобы взять изображение с условно низким разрешением и увеличить его до целевого размера (например, из 1440p в 2160p), но вместо простой аппроксимации цвета промежуточных пикселов GPU восстанавливает информацию, которая отсутствует в исходном кадре. Таким образом DLSS позволяет снизить нагрузку на графический процессор при рендеринге ресурсоемких сцен, особенно в сочетании с трассировкой лучей. В некотором смысле DLSS — это суперсемплинг наоборот: в то время как полноэкранное сглаживание методом SSAA заставляет GPU выполнить рендеринг с повышенным разрешением и потом сжимает исходный кадр, DLSS действует в противоположном направлении, увеличивая разрешение исходного кадра. Удаление лесенок с краев полигонов в данном случае является лишь побочным эффектом масштабирования картинки, а не основной задачей, как в SSAA и современных облегченных алгоритмах вроде вездесущего метода временнóго сглаживания TAA.
В основе DLSS лежит «искусственный интеллект» — нейронная сеть, которая обнаруживает паттерны внутри изображения и пытается воссоздать его в большем разрешении. Такой подход уже давно применятся для обработки статичных фотографий, но у подвижного видеоряда, тем более в различных играх, есть индивидуальная специфика. Поэтому для каждой игры нужно тренировать собственную вычислительную модель: в ходе множества итераций она пытается увеличить изображение таким образом, чтобы результат приблизился к «золотому стандарту» — кадру в целевом разрешении, который дополнительно облагорожен 64-кратным суперсемплингом. В этом вторая часть словосочетания Deep Learning Super Sampling соответствует действительности. Но кроме того, существует вариант технологии под названием DLSS 2x: здесь GPU сразу выполняет рендеринг в полном разрешении, а нейронная сеть нужна именно для полноэкранного сглаживания, которое в теории достигает качества, сравнимого с тем, что может предложить алгоритм SSAA 64x. Однако это пока задел на будущее — DLSS 2x еще не поддерживается ни в одной игре.
Тренировкой нейросетей для DLSS занимаются собственные серверы NVIDIA, и если судить по тому, как мало проектов на данный момент приобрели совместимость с новой технологией, это длительный процесс. Впрочем, чем больше игр с поддержкой DLSS выйдет в будущем, тем проще будет адаптировать нейросеть для новых, основываясь на прежних наработках.
С клиентской стороны DLSS опирается на тензорные ядра, которые появились в графических процессорах архитектуры Volta и Turing. Эти компоненты обладают высочайшей пропускной способностью в основном типе операций, которые применяются при обработке данных нейронными сетями (inference), — умножении-сложении матриц, состоящих из вещественных чисел сниженной разрядности (FP8 и FP16). Без тензорных ядер DLSS не имеет никакого смысла, иначе у GPU просто не хватит свободных ресурсов для рендеринга 3D-графики и одновременной работы нейросети. Поэтому DLSS — это эксклюзивная технология для ускорителей семейства GeForce RTX. Игровым видеокартам NVIDIA прошлого поколения на основе архитектуры Pascal такие возможности недоступны из-за чрезвычайно низкого быстродействия в расчетах FP16.
Впрочем, пользователю о тонкостях работы DLSS знать не обязательно. Нужно лишь своевременно обновлять игры и драйвер видеокарты, а свежие версии нейронных сетей ПО NVIDIA загружает самостоятельно — для этого даже не требуется утилита GeForce Experience, на которую производитель поначалу хотел возложить эту функцию.
⇡#
**Влияние DLSS на качество изображения**
Тест DLSS в составе 3DMark основан на бенчмарке Port Royal и задействует DXR для рендеринга освещения, теней и отражений. Но то, что Port Royal показывает на экране, имеет весьма отдаленное отношение к первым играм, которые освоили Ray Tracing. Ни в Battlefield V, ни в Metro Exodus нет настолько обильной трассировки лучей, а рендеринг такого изображения при играбельной частоте смены кадров с трудом дается даже GeForce RTX 2080 Ti.
Что касается DLSS, то повторяемая сцена обеспечивает идеальные условия для тренировки нейросети (впрочем, через какое-то время в тесте может появиться функция свободной камеры). Изображение, масштабированное при помощи DLSS, здесь выглядит не хуже, чем тот же кадр, честно прорисованный в целевом разрешении экрана, а во многих отношениях даже лучше. При рендеринге в нативном разрешении отдельные участки кадра сильно размыты — это особенно выражено в отражениях зеркальных поверхностей, где к тому же бросаются в глаза ступенчатые края полигонов. По всей видимости, 3DMark экономит количество лучей в этой чрезвычайно ресурсоемкой сцене и активно пользуется шумоподавлением, чтобы аппроксимировать цвет промежуточных пикселов. DLSS, в свою очередь, восстанавливает пропавшие детали, убирает «лесенки» и повышает локальный контраст.
На другом скриншоте можно увидеть, как DLSS устраняет грубый шум трассировки лучей в отражении на полу комнаты и делает резче материалы, не отражающие свет. Впрочем, на темных поверхностях можно разглядеть «грязные» артефакты, когда нейросеть увеличивает локальный контраст в участках с низким динамическим диапазоном.
|
|
|
|
Но это единственный изъян реализации DLSS, который мы смогли обнаружить, пока в этом тесте не появилась свободная камера. В остальном 3DMark демонстрирует эталонное качество масштабирования. Жаль, что в реальных играх все совсем не так просто.
В Battlefield V, помимо DLSS и рендеринга в полном размере со сглаживанием TAA, есть возможность просто уменьшить разрешение viewport’а, а игра растянет его на полный экран. Масштабированный кадр дополнительно проходит через фильтр, увеличивающий локальный контраст, — наподобие Unsharp Mask в «Фотошопе». В результате получается довольно резкое и шумное изображение, но по крайне мере лучше так, чем установить разрешение 1440p на 4К-матрице, поручив масштабирование электронике монитора, а главное, для этого не нужна видеокарта серии GeForce RTX.
DLSS же в Battlefield V, напротив, никак не влияет на локальный контраст, а нейросеть сама по себе еще не настолько хорошо тренирована, чтобы волшебным образом восстановить информацию из кадра с пониженным разрешением, как это происходит в 3DMark. Потеря резкости в DLSS по сравнению с тем, что можно видеть при рендеринге в полном разрешении, хорошо заметна на первом скриншоте, где масса мелких деталей на земле и в листве деревьев сливается с туманом. Простое масштабирование c разрешением viewport’а 67 % (что эквивалентно 1440p при целевом разрешении 2160p) в этой сцене дает зернистую и грубую, зато не настолько размытую картинку.
На поверхностях с однородной текстурой мягкое размытие DLSS не бросается в глаза. О такой же четкости, как при рендеринге в нативном разрешении с TAA, по-прежнему не идет никакой речи, но уже можно рассуждать, что лучше — DLSS или масштабирование из разрешения 67 %. Однако во второй сцене Battlefield V можно заметить проблемы иного рода: DLSS удалило «лишние» детали пятен на броне танка (подходящая аналогия из инструментов фоторетуши — это Healing Brush в Photoshop). Зато по этому признаку видно, что DLSS — это не просто растянутая картинка низкого разрешения. Нейронная сеть пытается обнаружить паттерны в изображении, но иногда принимает ошибочные решения.
|
|
|
|
|
|
Лучше всего DLSS справляется с простыми контрастными текстурами и тонкой геометрией. В последнем случае нейросеть усиливает детали, которые полностью теряются при сниженном разрешении viewport’а и почти сливаются с фоном в «честном» 4К.
|
|
|
|
|
|
Но самую большую разницу между TAA и DLSS обнаруживают кадры в динамике. В движущемся изображении TAA вызывает сильнейший муар на текстурах с повторяющимся рисунком, «лесенки» и грубые артефакты на краях полигонов. На кадрах с DLSS ничего подобного нет.
|
|
|
|
|
|
|
|
|
|
|
|
*Прим.: * *все скриншоты сделаны с отключенным размытием в движении (Motion Blur).*
Final Fantasy XV обзавелась поддержкой DLSS раньше остальных игр, а специальную версию бенчмарка с этой функцией мы получили еще к выходу GeForce RTX 2080 Ti, в августе прошлого года. У серверов NVIDIA было полно времени для оптимизации DLSS под Final Fantasy XV, и это заметно.
В отличие от Battlefield V, эталонное изображение для тренировки нейросети в Final Fantasy XV пропущено через фильтр четкости, усиливающий локальный контраст, — взгляните на лицо персонажа с первого кадра. Здесь же можно заметить не вполне удачную попытку DLSS восстановить детали отдаленного здания. Но в остальном статичная картинка мало отличается от рендеринга в нативном разрешении, а в иных случаях лучший результат дает именно DLSS — посмотрите на кабели ЛЭП в приближении.
|
|
|
|
|
|
В Final Fantasy XV тоже есть возможность уменьшить разрешение viewport’a, но игра даже не пытается облагородить растянутую картинку фильтром постобработки — ни в какое сравнение с DLSS этот способ повысить FPS не идет.
|
|
|
|
|
|
Впрочем, определенное снижение четкости по сравнению с рендерингом в полном разрешении на кадрах с DLSS все-таки есть. Кроме того, изменения локального контраста конфликтуют с Ambient Occlusion, размывая тени в углах и нишах. А вот сглаживание краев полигонов нейросеть выполняет с образцовым качеством.
|
|
|
|
|
|
Хотя DLSS в этой игре хорошо справляется со статичными кадрами (по крайней мере намного лучше, чем в Battlefield V), у нейросети есть проблемы с обработкой динамического изображения: такие объекты, как забор на автостоянке или оконные жалюзи, сильно размыты и постоянно мерцают. Зато нет никакого муара, как в случае с TAA или рендерингом в пониженном до 75 % разрешении viewport’a (установить масштаб в 67 %, эквивалентный разрешению 1440p, игра не позволяет).
|
|
|
|
|
|
|
|
|
|
|
|
*Прим.:* * все скриншоты сделаны с отключенным размытием в движении (Motion Blur).*
В Metro Exodus с самого начала была поддержка DLSS, но в первую неделю после выхода игры эта функция была практически бесполезной из-за нечеткого и размытого изображения. NVIDIA еще работает над следующей версией нейросети для Metro Exodus, но уже вышло промежуточное обновление, которое повышает локальный контраст итоговой картинки за счет фильтра постобработки. Четкости DLSS по-прежнему недостает, но прогресс налицо, особенно в простых контрастных текстурах.
|
|
|
|
|
|
Metro Exodus не позволяет установить сниженное разрешение viewport’а, как Battlefield V и Final Fantasy XV. Вместо этого есть опция Shading Rate, которая регулирует размер выборки шейдеров на каждый пиксел кадра. Результат рендеринга с Shading Rate на уровне 70 % трудно отличить от DLSS: последний дает более контрастное изображение, но в плавных градиентах заметны пикселы исходного кадра, который нейросеть увеличивает до целевого размера.
|
|
|
|
|
|
Как и в предыдущих играх, DLSS хорошо справляется с рендерингом мелкой геометрии отдаленных объектов, которая при сниженной выборке шейдеров просто растворяется на фоне неба.
|
|
|
|
|
|
В динамике DLSS не обнаруживает никаких преимуществ перед TAA: временнóе полноэкранное сглаживание в Metro Exodus отличается высоким качеством и не вызывает таких артефактов, как в Battlefield V.
|
|
|
|
|
|
*Прим.:* * все скриншоты сделаны с отключенным размытием в движении (Motion Blur).*
⇡#
**Тестовый стенд, методика тестирования**
|Тестовый стенд
|CPU
|Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
|Материнская плата
|ASUS MAXIMUS XI APEX
|Оперативная память
|G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 Гбайт (3200 МГц, CL14)
|ПЗУ
|Intel SSD 760p, 1024 Гбайт
|Блок питания
|Corsair AX1200i, 1200 Вт
|Система охлаждения CPU
|Corsair Hydro Series H115i
|Корпус
|CoolerMaster Test Bench V1.0
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|ПО для GPU AMD
|Все видеокарты
|AMD Radeon Software Adrenalin 2019 Edition 19.2.3
|ПО для GPU NVIDIA
|Все видеокарты
|NVIDIA GeForce Game Ready Driver 419.17
Для измерения производительности в играх Metro Exodus и Final Fantasy XV был использован встроенный бенчмарк. В Battlefield V тестирование проводилось в однопользовательской кампании на старте миссии Leberte. Показатели средней и минимальной кадровых частот выводятся из массива времени рендеринга индивидуальных кадров, который записывает бенчмарк (3DMark, Metro Exodus) или утилита OCAT (Battlefield V, Final Fantasy XV).
Средняя частота смены кадров на диаграммах игровых тестов является величиной, обратной среднему времени кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду. Из этого массива чисел выбирается значение, соответствующее 1-му процентилю распределения.
В тестировании производительности приняли участие следующие видеокарты:
Тест DLSS в 3DMark демонстрирует идеальное масштабирование результатов в соответствии с вычислительной мощностью GPU и разрешением экрана. В режиме 1080p рендеринг с DLSS увеличивает частоту смены кадров на 35–45 %, в 1440p — на 43–44 %.
При разрешении 2160p быстродействие трех старших видеокарт на чипах Turing за счет DLSS выросло на 91–94 %. Младший «Тьюринг» — особенный случай. Рендеринг в полном разрешении 2160p исчерпывает 6 Гбайт оперативной памяти GPU. DLSS, в свою очередь, экономит RAM за счет рендеринга кадра в пониженном исходном разрешении, и в результате быстродействие RTX 2060 оказывается на 150 % выше.
|1920 × 1080
|TAA
|DLSS
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|+35%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+42%
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+45%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+45%
|2560 × 1440
|TAA
|DLSS
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|+43%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+46%
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+46%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+44%
|3840 × 2160
|TAA
|DLSS
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|+94%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+92%
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+91%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+150%
DLSS в Battlefield V можно включить только в сочетании с трассировкой лучей, а отдельным видеокартам серии GeForce RTX доступны не все разрешения экрана, причем GPU с наиболее высоким быстродействием ограничены «снизу». GeForce RTX 2080 Ti может воспользоваться DLSS только в режиме 2160p, RTX 2080 — в 1440p и 2160p, и только на двух младших моделях разрешено активировать DLSS при разрешении 1080p.
Это неспроста: при достаточно низкой вычислительной нагрузке DLSS уже не дает никакого прироста частоты смены кадров. Так, GeForce RTX 2070 в режиме 1080p за счет DLSS набирает не больше 8 % FPS, а RTX 2060 — не больше 16 %. Лучше просто снизить разрешение viewport’а до 67 % — и быстродействие в результате увеличивается на 24–43 %.
|1920 × 1080
|DXR Medium
|DXR Ultra
|TAA
|DLSS
|Разр-е 67 %
|TAA
|DLSS
|Разр-е 67 %
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|НД
|НД
|100%
|НД
|НД
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|НД
|НД
|100%
|НД
|НД
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+3%
|+24%
|100%
|+8%
|+31%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+16%
|+43%
|100%
|+12%
|+37%
При разрешении 1440p DLSS тоже не слишком помогает. Даже при максимальном качестве трассировки лучей частота смены кадров благодаря нейросети возрастает всего лишь на 12–14 %. При DXR на среднем уровне качества GeForce RTX 2070 и RTX 2080 выиграли не больше 5 %, а для RTX 2060 эта технология практически бесполезна при таких настройках. В теории именно младшая видеокарта должна выйти вперед по приросту FPS, но по каким-то причинам, связанным с конфигурацией GPU, подобное соотношение результатов между RTX 2060 и RTX 2070 при установке DXR Medium повторяется и в режиме 2160p.
В то же время рендеринг в сниженном разрешении увеличивает частоту смены кадров на 29–60 % — в зависимости от интенсивности трассировки лучей и мощности GPU.
|2560 × 1440
|DXR Medium
|DXR Ultra
|TAA
|DLSS
|Разр-е 67 %
|TAA
|DLSS
|Разр-е 67 %
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|НД
|НД
|100%
|НД
|НД
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+4%
|+29%
|100%
|+12%
|+38%
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+5%
|+32%
|100%
|+13%
|+41%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|−1%
|+50%
|100%
|+14%
|+60%
DLSS наиболее эффективен при разрешении 2160p — в этом режиме масштабирование с помощью машинного обучения доступно всем видеокартам серии GeForce RTX. При среднем качестве трассировки лучей быстродействие возрастает на 17–36 %, а при максимальном — уже на 34–53 %. Тем не менее рендеринг в разрешении, сниженном до 67 %, влияет на результаты бенчмарка намного сильнее: бонус достигает 67 % при низком качестве трассировки. При максимальном качестве DXR таким образом можно практически удвоить FPS (+90 % на GeForce RTX 2060).
|3840 × 2160
|DXR Medium
|DXR Ultra
|TAA
|DLSS
|Разр-е 67 %
|TAA
|DLSS
|Разр-е 67 %
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|+17%
|+47%
|100%
|+34%
|+60%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+23%
|+53%
|100%
|+45%
|+73%
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+36%
|+67%
|100%
|+46%
|+73%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+20%
|+64%
|100%
|+53%
|+90%
DLSS в Final Fantasy XV работает только при разрешении 2160p, а трассировки лучей в этой игре нет, так что тестирование в FFXV не дало столь же развернутых результатов, как в Battlefield V. Как бы то ни было, в 4К масштабирование картинки с помощью машинного обучения существенно повышает частоту смены кадров — на 28–32 %. Как обычно, DLSS наиболее полезен для младших видеокарт семейства GeForce RTX, хотя разница со старшими «Тьюрингами» в данном случае совсем невелика.
В Final Fantasy XV тоже есть возможность просто уменьшить разрешение viewport’а вместо включения DLSS, но во встроенном бенчмарке она недоступна. Соответственно, данных о быстродействии с ее использованием мы не приводим. Во всяком случае, качество изображения с этой опцией снижается настолько сильно, что рассматривать ее как полноценную альтернативу DLSS совершенно невозможно.
|3840 × 2160
|TAA
|DLSS
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|+28%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+28%
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+33%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+32%
Набор разрешений экрана, вместе с которыми можно активировать DLSS, в Metro Exodus тоже ограничен в соответствии с быстродействием того или иного ускорителя серии GeForce RTX. Но по сравнению с Battlefield V здесь есть определенные послабления. К примеру, все модели на чипах Turing с тензорными ядрами могут задействовать нейросеть при разрешении 1440p одновременно с трассировкой лучей, а трем старшим видеокартам DLSS доступен в режиме 2160p независимо от DXR. При разрешении 1080p масштабирование с помощью машинного обучения предлагается только для GeForce RTX 2060 и RTX 2070 и только совместно с DXR.
Metro Exodus с трассировкой лучей и прочими настройками детализации на уровне Ultra — весьма «тяжелая» игра даже в режиме 1080p. Как следствие, RTX 2060 и RTX 2070 за счет DLSS могут нарастить частоту смены кадров на 14–18 % при минимальном качестве трассировки лучей и на 19–24 % при максимальном.
Сниженная выборка шейдеров, которая в Metro Exodus заменяет рендеринг с уменьшенным разрешением viewport’а, мало отличается от DLSS не только по качеству изображения, но и по воздействию на производительность. Так, при минимальном качестве трассировки лучей она увеличивает FPS на 17–20 %, а при максимальном — на 21–23 %.
|1920 × 1080
|RT High
|RT Ultra
|TAA
|DLSS
|Shading Rate 67 %
|TAA
|DLSS
|Shading Rate 67 %
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|НД
|НД
|100%
|НД
|НД
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|НД
|НД
|100%
|НД
|НД
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+14%
|+17%
|100%
|+19%
|+21%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+18%
|+20%
|100%
|+24%
|+23%
В режиме 1440p машинное обучение уже сильнее влияет на частоту смены кадров: при минимальном качестве трассировки лучей DLSS позволяет выиграть 18–25 % FPS, а при максимальном — 23–30 %. При этом разрешении мы можем сравнить DLSS со сниженной выборкой шейдеров на всем диапазоне графических карт GeForce RTX. Так вот, при трассировке лучей на минимальном уровне именно сниженная выборка шейдеров обеспечивает наибольший рост кадровой частоты. При максимальной интенсивности Ray Tracing в большинстве случаев нет никакой разницы между двумя решениями.
|2560 × 1440
|RT High
|RT Ultra
|TAA
|DLSS
|Shading Rate 67 %
|TAA
|DLSS
|Shading Rate 67 %
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|+18%
|+24%
|100%
|+23%
|+28%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+22%
|+27%
|100%
|+28%
|+29%
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+22%
|+25%
|100%
|+28%
|+28%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+25%
|+27%
|100%
|+30%
|+30%
DLSS при разрешении 2160p недоступен лишь младшей видеокарте серии GeForce RTX, а остальные модели позволяют включить нейросеть даже отдельно от DXR. В таком случае DLSS увеличивает быстродействие на 25–27 %, но сниженная выборка шейдеров по-прежнему более эффективна (+28–29 %).
Потенциал DLSS лучше всего раскрывается в режиме 2160p совместно с трассировкой лучей. Уже при минимальном качестве трассировки DLSS добавляет 48–52 % к частоте смены кадров, а при максимальном — 59–60 %. Сниженная выборка шейдеров уже не дает такого эффекта и предлагает лишь 35–36 или 37–38 % кадровой частоты в зависимости от интенсивности трассировки лучей.
|3840 × 2160
|RT Off
|RT High
|RT Ultra
|TAA
|DLSS
|Shading Rate 67 %
|TAA
|DLSS
|Shading Rate 67 %
|TAA
|DLSS
|Shading Rate 67 %
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|+25%
|+28%
|100%
|+48%
|+36%
|100%
|+59%
|+38%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+25%
|+29%
|100%
|+53%
|+34%
|100%
|+62%
|+37%
|ASUS ROG Strix GeForce RTX 2070 OC (8 Гбайт)
|100%
|+27%
|+29%
|100%
|+52%
|+35%
|100%
|+60%
|+38%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|НД
|НД
|100%
|НД
|НД
|100%
|НД
|НД
Что можно сказать про Deep Learning Super Sampling на примере немногочисленных игр, которые уже приобрели совместимость с этой технологией? Если резюмировать наши эксперименты в Battlefield V, Final Fantasy XV и Metro Exodus, то на данном этапе инициатива NVIDIA производит неоднозначное впечатление, и пока преждевременно решать, что такое DLSS — успех или провал.
Самую удачную реализацию DLSS из трех проектов предлагает Final Fantasy XV. Нейросеть, которая масштабирует изображение в этой игре, имеет специфические недостатки — она плохо справляется с движущимися объектами. Но в целом NVIDIA и Square Enix выполнили поставленную задачу: изображение, обработанное DLSS, похоже на картинку в честном 4К, и ради прироста быстродействия на 28–32 % можно закрыть глаза на отдельные недоработки. Тем более что Final Fantasy XV на «максималках» — это весьма ресурсоемкая игра, а если просто снизить внутреннее разрешение рендеринга, то результат не идет ни в какое сравнение с DLSS.
В Metro Exodus разработчики вообще не обещали поддержки DLSS, пока игра не ушла на золото. Хорошо заметно, что эту опцию добавили в последний момент, и нейросеть для Metro Exodus еще очень сырая. Недавнее обновление благотворно повлияло на четкость изображения, и теперь DLSS работает весьма недурно, пусть и не так хорошо, как в Final Fantasy XV. Но проблема в том, что Metro Exodus позволяет снизить нагрузку на графический процессор альтернативным способом, который никак привязан к видеокартам серии GeForce RTX (за счет сниженной выборки шейдеров). Качество рендеринга в таком случае практически не отличается от того, что можно видеть при включенном DLSS, а преимущество по быстродействию у технологии NVIDIA есть только в режиме 2160p c трассировкой лучей. Как бы то ни было, DLSS в Metro Exodus сильно экономит ресурсы GPU и при благоприятных условиях позволяет увеличить частоту смены кадров на 48–60 %. Нужно только дождаться, когда на серверах NVIDIA созреет финальная версия нейросети.
А вот DLSS в Battlefield V — это, как ни крути, полнейшее разочарование. Здесь технология работает очень лениво: размывает картинку, а в отдельных случаях съедает мелкие детали из-за некорректного распознавания паттернов внутри нейронной сети. Кроме того, DLSS не слишком сильно влияет на частоту смены кадров, и только при разрешении 2160p c максимальным качеством трассировки лучей позволяет выиграть 34–53 % FPS. А главное, в Battlefield V можно просто уменьшить внутреннее разрешение рендеринга — в таком случае и качество изображения, и быстродействие только увеличивается по сравнению с тем, что можно получить при активации DLSS. Единственное преимущество у DLSS есть в рендеринге движущегося изображения, где сглаживание методом TAA вызывает массу артефактов, особенно заметных при сниженном разрешении.
У технологии DLSS по-прежнему есть нераскрытый потенциал. Достаточно посмотреть на 3DMark, где сцена, обработанная нейросетью, выглядит даже лучше, чем при рендеринге в целевом разрешении. Кроме того, мы еще не увидели ни одного проекта с поддержкой DLSS 2x, который сулит качество полноэкранного сглаживания на уровне 64-кратного суперсемплинга. Но пока нужно признать, что внедрение DLSS в играх происходит медленно и проблематично. И хотя есть такие успешные примеры, как Final Fantasy XV, пока что масштабирование кадра с помощью нейросети даже близко не похоже на универсальный способ бесплатно увеличить разрешение, каким оно выглядит в теории и синтетических тестах. Все зависит от того, сколько времени потребуется фермам машинного обучения в ЦОДах NVIDIA, чтобы новые игры получали собственные профили DLSS оперативно и сразу с высоким качеством рендеринга. Ну а мы еще не раз вернемся к этой теме в будущем. |
983,706 | Обзор NVMe-накопителя ADATA XPG SX8200 Pro: не навреди | Последние два года выдались достаточно тяжёлым периодом для производителей твердотельных накопителей второго-третьего эшелона. С одной стороны, в 2017-м многие из них пострадали из-за серьёзного дефицита чипов NAND, а с другой – в 2018 году заметно активизировались компании из первого эшелона в лице Samsung, Western Digital, Micron и Intel, которые стали активно выдавливать с рынка более мелких конкурентов. Изменившаяся конъюнктура быстро всё расставила по своим местам, в результате чего стало очень хорошо понятно, какие из производителей SSD занимались этим бизнесом постольку-поскольку, а какие рассчитывали занять достойное место и добросовестно вкладывались в разработки, репутацию и маркетинг.
Положительный пример производителя второго эшелона, которого не сломили никакие трудности, — небезызвестная ADATA. Эта компания не только прочно обосновалась на рынке, не уступив своё место гигантам, но и смогла существенно расширить свой бизнес, в то время как многие её конкуренты фактически перестали заниматься твердотельными накопителями. Например, за прошлый год она сумела увеличить продажи SSD примерно на 15 %, причём значительный рост был достигнут не только в сегменте бюджетных продуктов, но и по продажам производительных накопителей, использующих NVMe-интерфейс.
Причины успеха достаточно очевидны: с одной стороны, ADATA достигла соглашения о стабильных поставках качественной 3D NAND с компанией Micron, а с другой – активно работала над развитием своего модельного ряда, раз за разом выбирая удачных партнёров из числа разработчиков контроллеров. В частности, для наиболее доступных накопителей компания находила соответствующие контроллеры, не гнушаясь работой как с хорошо зарекомендовавшими себя фирмами масштаба Marvell и Silicon Motion, так и с новичками вроде Maxiotek и Realtek. При этом в создании продуктов верхнего уровня ADATA стабильно опиралась на платформы Silicon Motion — и это оказалось очень мудрым и дальновидным решением.
Дело в том, что за последние несколько лет Silicon Motion смогла стать ведущим независимым поставщиком контроллеров SSD, масштабы бизнеса которого нетрудно оценить по тому факту, что в прошлом году эта компания отгрузила потребителям свою шестимиллиардную микросхему. Однако о том, насколько хороши решения Silicon Motion в инженерном плане, судить лучше по другим достижениям. Например, она может похвастать поставками чипов для накопителей ведущих производителей уровня Micron и Intel. Но ещё больше впечатляет то, что, начав с создания маломощных контроллеров для бюджетных SSD, Silicon Motion за несколько лет смогла дойти до того, что сегодня её микросхемы почти не уступают лучшим решениям Samsung и SanDisk, которые долгое время считались недостижимым для других идеалом.
Именно про это и планировался изначально наш сегодняшний обзор. В нём мы собирались рассказать о том, насколько выдающийся твердотельный накопитель можно сконструировать, если взять самую современную и самую лучшую платформу Silicon Motion (SMI) и начинить её добротной 64-слойной TLC 3D NAND производства Micron. Собрать такую конфигурацию, безусловно, мог бы любой из производителей SSD, но мы почему-то не удивлены, что этим производителем в очередной раз оказалась именно ADATA. Эта компания один раз уже смогла удивить нас, когда предложила накопитель XPG SX8200, переигравший по производительности Samsung 970 EVO. Но теперь она собралась блеснуть ещё сильнее и переплюнуть новейший Samsung 970 EVO Plus, который мы совсем недавно назвали лучшим массовым SSD с интерфейсом NVMe.
Вот только подход, выбранный ADATA на этот раз, вызывает серьёзные вопросы. Но не будем забегать вперёд.
Главная причина, по которой новый накопитель ADATA XPG SX8200 Pro так заинтересовал как компьютерных энтузиастов в целом, так и нас в частности, – контроллер SMI SM2262EN. Именно применение этой микросхемы и отличает XPG SX8200 Pro от предшествующей версии флагманского NVMe SSD компании – простого XPG SX8200. Массив флеш-памяти в XPG SX8200 Pro такой же, как и раньше, но благодаря внедрению усовершенствованной модификации контроллера новый накопитель должен быть намного быстрее – именно так преподносит свою новинку сама ADATA.
И в этом есть определённая логика. Контроллер SM2262 стал первым решением Silicon Motion, позволившим NVMe-накопителям производителей второго эшелона достичь лидирующего уровня быстродействия. Чип SM2262EN изначально позиционировался как корпоративная (Enterprise) версия обычного SM2262 с дополнительными алгоритмами, направленными на повышение надёжности работы. Но в результате оптимизации изначального контроллера инженерам Silicon Motion удалось получить серьёзно отличающуюся по характеристикам платформу, поэтому разработчики сочли правильным предложить её и на массовый рынок. Это и сделало возможным выпуск таких продуктов, как ADATA XPG SX8200 Pro, или его близких аналогов – HP EX950 или Transcend NVMe SSD 220S.
К сожалению, мы не имеем детальной информации о том, что стало ключом к заметному росту характеристик быстродействия в SM2262EN. Разработчики говорят, что базовая архитектура в обновлённой версии контроллера осталась нетронутой. В нём, как и раньше, реализовано восемь каналов для организации массива флеш-памяти, поддерживается интерфейс PCI Express 3.0 x4, а в основе лежит пара процессорных ядер ARM Cortex-R. Фактически изменения касаются лишь микропрограммы, причём её низкоуровневой составляющей, то есть тех алгоритмов, которые контроллер применяет для чтения и записи аналоговой информации из ячеек памяти и для её преобразования в цифровую форму.
Сама Silicon Motion утверждает, что в SM2262EN им удалось повысить скорость последовательной записи на величину до 60 %, а производительность при произвольном чтении и записи – на 10-15 % и 40 % соответственно. Если же говорить конкретно о ADATA XPG SX8200 Pro, то характеристики этого накопителя приобрели следующий вид.
|
Производитель |
ADATA
|Серия
|
XPG SX8200 Pro
|Модельный номер
|ASX8200PNP-256GT
|ASX8200PNP-512GT
|ASX8200PNP-1TT
|Форм-фактор
|M.2 2280
|Интерфейс
|PCI Express 3.0 x4 – NVMe 1.3
|Ёмкость, Гбайт
|256
|512
|1024
|
Конфигурация
|Микросхемы памяти: тип, интерфейс, техпроцесс, производитель
|Micron 64-слойная 256-Гбит TLC 3D NAND
|Контроллер
|SMI SM2262EN
|Буфер: тип, объём
|DDR3-1600,
256 Мбайт
|DDR3-1600,
512 Мбайт
|DDR3-1600,
1024 Мбайт
|
Производительность
|Макс. устойчивая скорость последовательного чтения, Мбайт/с
|3500
|3500
|3500
|Макс. устойчивая скорость последовательной записи, Мбайт/с
|1200
|2300
|3000
|Макс. скорость произвольного чтения (блоки по 4 Кбайт), IOPS
|220 000
|390 000
|390 000
|Макс. скорость произвольной записи (блоки по 4 Кбайт), IOPS
|290 000
|380 000
|380 000
|
Физические характеристики
|Потребляемая мощность: бездействие/чтение-запись, Вт
|0,14/0,33
|MTBF (среднее время наработки на отказ), млн. ч
|2,0
|Ресурс записи, Тбайт
|160
|320
|640
|Габаритные размеры: Д × В × Г, мм
|80 × 22 × 3,5
|Масса, г
|8
|Гарантийный срок, лет
|5
Показатели быстродействия в спецификациях действительно подросли, и теперь линейные скорости старшей версии XPG SX8200 Pro вплотную подобрались к пропускной способности интерфейса PCI Express 3.0 x4 не только при чтении, но и при записи. Предшествующий XPG SX8200 был при таком виде нагрузки медленнее чуть ли не вдвое. То же касается и производительности при произвольных операциях: для новой модели заявлены существенно более высокие скорости, и в первую очередь это касается записи.
Флеш-память же здесь совершенно ни при чём. Недавно мы тестировали обновлённый накопитель Samsung 970 EVO Plus, и там рост производительности был достигнут за счёт перехода на более современную архитектуру памяти. Но у ADATA XPG SX8200 Pro выигрыш в быстродействии достигается другими путями, ведь в его основе лежит такая же память, как и у обычного XPG SX8200, – 64-слойная TLC 3D NAND компании Micron с 256-гигабитными кристаллами. Обновлённый контроллер SM2262EN действительно адаптирован в том числе и для перспективной 96-слойной памяти, но в ADATA решили не дожидаться того момента, когда Micron начнёт массово поставлять такую флеш-память на открытый рынок, выбрав широко доступную и хорошо зарекомендовавшую себя TLC 3D NAND прошлого, второго поколения, с 64 слоями.
Иными словами, произошедшее ускорение действительно полностью определяется контроллером, а точнее его алгоритмами, один из которых – алгоритм ускоренной записи, реализуемый посредством SLC-кеша. Как и раньше, он в ADATA XPG SX8200 Pro работает по динамической схеме, то есть кеш размещается в основном массиве флеш-памяти, и объём информации, который можно записать в ускоренном режиме, зависит от того, сколько свободного места есть на SSD. Однако в деталях реализации произошли существенные изменения.
Что изменилось, нетрудно увидеть, если посмотреть на график скорости непрерывной последовательной записи на пустой ADATA XPG SX8200 Pro ёмкостью 512 Гбайт.
Начать стоит с того, что реальная скорость записи данных в массив флеш-памяти у нового накопителя по сравнению со стандартным ADATA XPG SX8200 выше далеко не всегда. Фактически выигрыш в производительности заметен лишь при записи в ускоренном SLC-режиме. Прошлый SSD на базе контроллера SM2262 в этом случае обеспечивал скорость порядка 1,7 Гбайт/с, а теперь она выросла до 1,9 Гбайт/с. При этом скорость записи в обычном TLC-режиме, напротив, уменьшилась. У ADATA XPG SX8200 она составляла 550 Мбайт/с, новый же накопитель XPG SX8200 Pro выдаёт лишь 470 Мбайт/с.
В свете таких изменений разработчикам пришлось целиком перекроить стратегию работы SLC-кеша. Если раньше накопитель заполнял массив флеш-памяти в однобитовом режиме до тех пор, пока это позволяло свободное место, переходя на трёхбитовую запись лишь тогда, когда SLC-режим оказывался более недоступным, у XPG SX8200 Pro объём SLC-кеша стал вдвое меньше по размеру. То есть скоростная запись доступна теперь лишь на половине свободной ёмкости SSD. Зато при длительных операциях, приводящих к переходу в TLC-режим, накопителю не требуется сразу же прибегать к уплотнению информации, записанной ранее в однобитовом режиме. В результате нагрузка на контроллер стала меньше, и окончание свободного места в кеше не приводит, как раньше, к снижению линейной скорости до 340 Мбайт/с — этот параметр получается в полтора раза выше.
Поэтому на приведённом выше графике линейной скорости непрерывной записи на чистую 512-гигабайтную версию ADATA XPG SX8200 Pro можно выделить три ступени. Первые 80 Гбайт пишутся в SLC-режиме со скоростью 1,9 Гбайт/с. Последующие 240 Гбайт записываются в TLC-режиме со скоростью 550 Мбайт/с. И последние 192 Гбайт дописываются уже в TLC-режиме с одновременным уплотнением данных, сохранённых ранее в однобитовом режиме, – в этом случае линейная скорость падает до 300 Мбайт/с. То есть на качественном уровне ADATA XPG SX8200 Pro по сравнению с XPG SX8200 предлагает более быстрый динамический SLC-кеш, который при этом стал вдвое меньше по ёмкости и в лучшем случае позволяет ускорить запись объёма данных, равного примерно одной шестой, а не одной третьей от свободного на SSD места.
Но главная новость в стратегии кеширования XPG SX8200 Pro – не сокращение объёма флеш-памяти, используемой для записи в SLC-режиме, а то, что накопитель теперь кеширует операции не только записи, но и чтения. Правда, применённый подход не имеет никаких продвинутых алгоритмов предвыборки, а использует самую тупую логику. Информация, попавшая в SLC-кеш при записи, переносится из него в TLC-память с большой задержкой, и это приводит к тому, что сценарии, при которых происходит чтение только что записанных данных, обслуживаются заметно быстрее, чем чтение данных, сохранённых на SSD ранее.
В реальной жизни чтение свежезаписанных данных вряд ли может считаться распространённым сценарием. Поэтому стратегия, реализованная в ADATA XPG SX8200 Pro, пользу обычным пользователям, скорее всего, не принесёт. Но зато она позволяет эффективно пускать пыль в глаза и заметно поднимать показатели накопителя в бенчмарках, ведь это в первую очередь для них характерно измерение скорости чтения по обращениям к только что созданному тестовому файлу. А это значит, что большинство результатов тестов XPG SX8200 Pro не соответствует реальной производительности этого накопителя – по ним можно лишь увидеть, насколько быстро происходит чтение из SLC-кеша, в то время как при повседневном использовании SSD почти все данные на самом деле читаются из массива TLC-памяти.
Чтобы не быть голословными, мы провели простой эксперимент, в течение которого измеряли скорость случайного чтения из свежего файла как сразу же после его создания, так и спустя некоторое время, когда на накопитель были записаны дополнительные объёмы данных.
Интерпретация результатов очень проста. Пока файл только создан и всё ещё находится в SLC-кеше, накопитель обеспечивает скорость мелкоблочного чтения (блоками по 4 Кбайт без очереди запросов) на уровне 57 Мбайт/с. Однако как только под влиянием последующих операций записи файл мигрирует из кеша в обычную TLC-память, скорость чтения падает где-то на 20 % – до 45 Мбайт/с. Для вытеснения исходного файла из кеша на чистом накопителе оказывается достаточно записать порядка 60 Гбайт данных, то есть перенос старых данных из SLC-кеша в массив обычной памяти происходит тогда, когда кеш заполняется на три четверти.
Из этого можно сделать сразу несколько выводов. Во-первых, обычные бенчмарки, которые измеряют скорости, оперируя специально созданным для измерений файлом, выдают для ADATA XPG SX8200 Pro неправильные, завышенные скорости чтения. Во-вторых, хотя динамический кеш этого накопителя и предполагает достаточно большой объём, в большинстве случаев он оказывается на три четверти уже заполненным ранее записанными данными, что снижает его эффективность при операциях записи.
Возможно, это заявление прозвучит слишком громко, но очень похоже, что оптимизации алгоритмов кеширования в ADATA XPG SX8200 Pro ориентированы на увеличение результатов, которые этот накопитель показывает в тестах, а совсем не на рост производительности в реальных пользовательских сценариях. Поэтому утверждение, что Pro-версия SSD значительно быстрее ординарного XPG SX8200, мы бы поставили под вопрос. Прояснить ситуацию поможет подробное тестирование, к которому мы сейчас и перейдем.
Впрочем, считать, что все улучшения в XPG SX8200 Pro имеют исключительно «читерский» характер, всё-таки не стоит. Ведь некоторые изменения вообще не связаны с показателями быстродействия. Например, ADATA XPG SX8200 Pro по сравнению с предшественником получил более высокие ёмкости, кратные 256, а не 240 Гбайт. В результате пользователям достаются дополнительные 6 процентов объёма, которые, соответственно, отрезаны от служебной области накопителя. Однако не стоит бояться уменьшения надёжности: как показали тесты выносливости XPG SX8200, для своих старших моделей SSD компания ADATA приобретает у Micron первосортную память, которая способна без ошибок переносить очень высокую нагрузку.
Кроме того, в модельном ряду XPG SX8200 Pro обещана и двухтерабайтная модификация, которая ранее не предлагалась. Правда, сейчас её в продаже тоже нет, но, по крайней мере, производитель утверждает, что имеет намерение выпустить её несколько позднее.
А вот условия гарантии на ADATA XPG SX8200 Pro остались абсолютно теми же. На накопитель даётся пятилетняя гарантия, а объём разрешённой записи рассчитан так, что целиком накопитель можно перезаписать максимум 640 раз. Это вполне типичное ограничение для сегодняшних SSD ведущих производителей.
⇡#Внешний вид и внутреннее устройство
ADATA XPG SX8200 Pro – накопитель в форм-факторе M.2 2280, который работает через шину PCI Express 3.0 x4 и поддерживает интерфейс NVM Express версии 1.3. Для тестирования мы взяли модель ёмкостью 512 Гбайт. Благодаря существенному снижению цен такой объём для производительных SSD с NVMe-интерфейсом сегодня стал одним из самых популярных вариантов среди энтузиастов.
По первому же взгляду на выбранную версию XPG SX8200 Pro становится ясно, что этот накопитель очень многое унаследовал от предыдущего XPG SX8200. Более того, старая и новая модификация используют идентичные печатные платы, что возможно благодаря совместимости по выводам между контроллерами SM2262 и SM2262EN. Иными словами, чтобы отличить XPG SX8200 Pro по внешним признакам, смотреть надо на маркировку контроллера, а именно на наличие букв ENG, а не G в окончании его модельного номера.
Плата рассматриваемого накопителя двухсторонняя, и микросхемы памяти расположены на обеих ее сторонах. Это значит, что данный накопитель толще популярных NVMe SSD крупных производителей (например, WD Black NVMe или Samsung 970 EVO Plus), и потому он может не подойти для некоторых тонких ноутбуков.
Две микросхемы на рассматриваемом накопителе составляют DRAM-буфер. Он собран на базе пары 256-мегабайтных чипов DDR3-1600 производства Nanya. Это весьма нестандартное решение, предложенное в новых платформах Silicon Motion, в результате которого буферная динамическая память общается с контроллером по 32-битной, а не 16-битной, как в иных SSD, шине. В результате XPG SX8200 Pro получает определённое преимущество при работе с мелкоблочными операциями, где контроллеру требуется активно взаимодействовать с таблицей трансляции адресов. Элементная база ADATA XPG SX8200 Pro представлена семью чипами — такое обилие компонентов на накопителях формата M.2 встречается нечасто. Но массив флеш-памяти сформирован всего из четырёх микросхем, несущих на себе маркировку самой ADATA. Дело в том, что компания закупает у производителя полупроводников цельные пластины с кристаллами NAND и самостоятельно их разрезает, сортирует и упаковывает в микросхемы. Если говорить о накопителе ёмкостью 512 Гбайт, то в нём каждая из четырёх микросхем флеш-памяти содержит внутри себя по четыре 256-гигабитных кристалла 64-слойной TLC 3D NAND производства Micron, что позволяет восьмиканальному контроллеру для доступа к такому массиву пользоваться двукратным чередованием устройств в каждом канале. Именно поэтому терабайтная версия XPG SX8200 Pro может быть быстрее полутерабайтной – четырёхкратное чередование имеет лучшую эффективность при операциях записи.
Стоит упомянуть, что у накопителя ADATA XPG SX8200 Pro есть брат-близнец – XPG Gammix S11 Pro. Это абсолютно такой же продукт, но с геймерским декором — закрывающим лицевую сторону платы SSD фигурным алюминиевым радиатором. И надо сказать, охлаждение для такого накопителя лишним совсем не будет, поскольку нагревается во время работы он достаточно заметно. Поэтому для XPG SX8200 Pro производитель тоже предусмотрел теплорассеивающую пластину.
Но в этом случае она не имеет никакой сложной формы и изначально на накопитель не наклеена. Установить её пользователь должен самостоятельно — в том случае, если слот M.2, в котором предполагается использовать SSD, не имеет штатного радиатора.
С сервисным программным обеспечением у ADATA дело обстоит далеко не лучшим образом. Фирменная утилита для накопителей компании существует, но развивается она крайне вяло, а её возможности и внешний вид оставляют желать лучшего. Например, каждый раз во время тестирования нам сильно досаждает её неумение корректно масштабировать свой интерфейс на 4K-мониторе в соответствии с настройками операционной системы.
Тем не менее поддержка новых накопителей в ADATA SSD Toolbox своевременно добавляется.
Так, помимо выдачи полной диагностической информации о SSD, ADATA SSD Toolbox позволяет провести проверку флеш-памяти накопителя, отослать на него пакет команд TRIM или выполнить автоматическую настройку параметров операционной системы (отключение Superfetch, Prefetch и дефрагментации).
Также через ADATA SSD Toolbox можно произвести обновление микропрограммы и выполнить процедуру Secure Erase.
Кроме того, после регистрации приобретённого XPG SX8200 Pro на сайте производителя можно получить ключ к популярной программе для клонирования данных Acronis True Image HD 2013/2015.
Тестирование проводится в операционной системе Microsoft Windows 10 Enterprise x64 Build 16299, корректно распознающей и обслуживающей современные твердотельные накопители. Это значит, что в процессе прохождения тестов, как и при обычном повседневном использовании SSD, команда TRIM поддерживается и активно задействуется. Измерение производительности выполняется с накопителями, находящимися в «использованном» состоянии, которое достигается их предварительным заполнением данными. Перед каждым тестом накопители очищаются и обслуживаются с помощью команды TRIM. Между отдельными тестами выдерживается 15-минутная пауза, отведённая для корректной отработки технологии сборки мусора. Во всех тестах используются рандомизированные несжимаемые данные.
Раздел, в пределах которого тестируется скорость операций, имеет размер 32 Гбайт, а продолжительность каждого теста составляет сорок секунд. Такие параметры, в частности, позволят получать более релевантные результаты для тех SSD, которые используют различные технологии SLC-кеширования.
Используемые приложения и тесты:
С выходом процессоров Coffee Lake Refresh мы решили в очередной раз обновить тестовую систему, которая используется для измерения производительности NVMe-моделей SSD. Всё-таки подобные накопители в первую очередь покупают энтузиасты, переходящие на новые платформы, и поэтому логично использовать в тестовых испытаниях новейшую платформу.
В итоге в качестве тестовой платформы используется компьютер с материнской платой ASRock Z390 Taichi, процессором Core i7-9700K со встроенным графическим ядром Intel UHD Graphics 630 и 8 Гбайт DDR4-2666 SDRAM. Накопители с интерфейсом M.2 во время тестирования устанавливаются в соответствующий слот материнской платы, подключённый к чипсету. Накопители в виде карт PCI Express устанавливаются в слот PCI Express 3.0 x4, также работающий через чипсет.
Объём и скорость передачи данных в бенчмарках указываются в бинарных единицах (1 Кбайт = 1024 байт).
Отдельное пояснение следует сделать относительно закрытия процессорных уязвимостей Meltdown и Spectre. Существующие патчи заметно снижают производительность твердотельных накопителей, поэтому измерения проводятся с деактивированными «заплатками» OC, предназначенными для закрытия этих уязвимостей.
⇡#Список участников тестирования
На ADATA XPG SX8200 Pro возложены очень большие надежды. Многие хотят верить, что этот SSD, подобно своему предшественнику, сможет стать лучшим вариантом по соотношению цены и производительности в сегменте NVMe-накопителей и потягаться с Samsung 970 EVO Plus, который очень заметно поднял планку. Поэтому для сегодняшнего теста мы отобрали лучшие варианты, доступные в настоящее время в магазинах. Это как передовые решения компании Samsung, так и накопители Intel и Western Digital. Кроме того, в тесты включён и предшественник ADATA XPG SX8200 Pro, накопитель ADATA XPG SX8200.
В результате список протестированных моделей получил следующий вид:
Используемые версии NVMe-драйверов:
⇡#Производительность последовательного чтения и записи
Если говорить о картине в среднем, то скорость линейного чтения у нового ADATA XPG SX8200 Pro стала по сравнению с показателями предыдущего XPG SX8200 чуть хуже. Явное преимущество есть лишь на глубоких очередях запросов, но это – нереалистичная ситуация. Скорость же линейной записи понизилась куда заметнее. И мы знаем почему – у XPG SX8200 Pro изменены алгоритмы SLC-кеширования, и данные, не попадающие в SLC-кеш, записываются существенно медленнее. К тому же уменьшился и эффективный размер такого кеша.
В результате по скоростным показателям при последовательных операциях ADATA XPG SX8200 Pro выглядит не лучше своего предшественника и совершенно не кажется сильным соперником для нового Samsung 970 EVO Plus. Это закономерно: и в случае линейной записи в SLC-кеш, и в случае прямой записи в TLC-память Samsung 970 EVO Plus может предложить примерно в полтора раза более высокое быстродействие. Но не будем делать преждевременных выводов. Накопители на платформах Silicon Motion обычно выигрывали за счёт высокой производительности при смешанных и при случайных операциях.
⇡#Производительность произвольного чтения
Сделанные в контроллере SM2262EN оптимизации действительно позволили поднять производительность ADATA XPG SX8200 Pro при случайном чтении, но лишь при глубокой очереди запросов. В случае же неконвейеризируемых операций чтения новый XPG SX8200 Pro слегка медленнее предшественника. В результате ни при каких вариантах случайного чтения «улучшенный» накопитель ADATA до скоростных показателей Samsung 970 EVO Plus не дотягивает.
Здесь хотелось бы подчеркнуть, что наша методика тестирования базируется на профессиональном бенчмарке IOMeter, что позволяет нам получать «истинные» скоростные показатели SSD, а не те, которые накопители показывают при чтении из SLC-кеша свежезаписанных данных. Именно поэтому оценки, которые вы видите на приведённых диаграммах, отличаются от большинства результатов тестирований в прочих источниках и корректнее отражают производительность накопителей, моделируя их работу в реалистичных условиях.
⇡#Производительность произвольной записи
Исходя из представленных на графиках результатов, можно сказать, что с точки зрения скорости мелкоблочной записи ADATA XPG SX8200 Pro мало отличается от своего предшественника. Преимущество новой модели будет более убедительным, только если речь идёт о работе с небольшими объёмами данных, которые смогут целиком уместиться в кеш. Но тут есть один важный нюанс: в новом XPG SX8200 Pro существенно поменялась стратегия кеширования, и контроллер этого накопителя не стремится сразу же освобождать SLC-кеш для будущих операций. Напротив, данные в нём остаются на достаточно длительное время — чтобы увеличить скорость чтения недавно записанных файлов. Поэтому зачастую можно столкнуться с тем, что даже после продолжительных пауз запись на XPG SX8200 Pro достаточно больших объёмов информации в скоростном режиме оказывается невозможной, несмотря на кажущийся значительный объём предусмотренного в накопителе SLC-кеша.
Это приводит к тому, что скорость записи на накопитель может различаться в достаточно широких пределах в зависимости от того, освободил ли предварительно контроллер накопителя SLC-кеш или нет. К сожалению, влиять на эту ситуацию пользователь никак не может. Для ADATA XPG SX8200 Pro явно напрашивается функция, которую мы видели в Intel SSD 660p: пользователь может принудительно освободить SLC-кеш, подав соответствующую команду при помощи комплектной утилиты SSD Toolbox, но в накопителях ADATA она, увы, не предусмотрена.
⇡#Производительность при смешанной нагрузке
И вот здесь проявляется главное слабое место ADATA XPG SX8200 Pro. Увлекшись не слишком уместной оптимизацией контроллера и микропрограммы SM2262EN с прицелом на стандартные бенчмарки, разработчики Silicon Motion ослабили главный козырь предшественника – способность очень эффективно работать со смешанным потоком команд. В результате если SSD требуется одновременное обслуживание операций чтения и записи, то XPG SX8200 Pro заметно проигрывает простому XPG SX8200.
Впрочем, справедливости ради стоит отметить, что высокая эффективность платформы Silicon Motion в дуплексном режиме всё равно никуда не делась. И по производительности при смешанных операциях ADATA XPG SX8200 Pro по-прежнему превосходит NVMe SSD ведущих производителей, включая и новейший Samsung 970 EVO Plus.
⇡#Производительность в CrystalDiskMark
ADATA XPG SX8200 Pro – просто отличная кандидатура для участия во всяческих бенчмарках. Благодаря тому, что он переносит данные из SLC-кеша в TLC-память с задержкой, простые любительские тесты, которые работают по схеме «записать файл — прочитать файл», показывают неправдоподобно высокие показатели. Ещё бы, ведь фактически тестированию оказывается подвергнут накопитель, работающий с SLC-памятью, в то время как при реальном использовании данные будут находиться в обычной TLC-памяти, а не в быстром кеше с однобитовыми ячейками.
Но кого это волнует, когда можно похвастаться скриншотом CrystalDiskMark, на котором ADATA XPG SX8200 Pro по скорости случайного чтения без очереди запросов убедительно превосходит новинку Samsung – накопитель 970 EVO Plus!
⇡#Производительность в PCMark 8 Storage Benchmark 2.0
Оптимизации, которые нашли воплощение в ADATA XPG SX8200 Pro, дают очень заметный эффект в стандартных бенчмарках, и PCMark 8 – не исключение. Прирост по сравнению с результатом предшественника превышает 20 %. Однако мы сомневаемся, что весь этот прирост обуславливается увеличенной эффективностью работы контроллера с флеш-памятью. Скорее всего, существенное влияние оказала появившаяся задержка в перемещении данных из SLC- в TLC-ячейки, что приводит к исполнению теста в «быстрой», а не в «обычной» части флеш-памяти.
Тем не менее выглядит всё очень красиво: ADATA XPG SX8200 Pro смог сравняться по показателю производительности с Samsung 970 EVO Plus. Причём, напомним, в накопителе Samsung ускорение достигнуто за счёт применения более новой и прогрессивной флеш-памяти, а у ADATA повышение результата обусловлено «оптимизацией» алгоритмов в контроллере и микропрограмме.
Интегральный результат PCMark 8 нужно дополнить и показателями производительности, выдаваемыми накопителями при прохождении отдельных тестовых трасс, которые моделируют различные варианты реальной нагрузки. Дело в том, что при разноплановой нагрузке флеш-накопители могут вести себя каким-либо особым образом.
Наилучшие результаты ADATA XPG SX8200 Pro показывает в сценариях, имитирующих работу в Photoshop. В таком случае этот накопитель якобы может обгонять даже Samsung 970 PRO, не говоря уже про всех прочих конкурентов. В большинстве же других приложений производительность новинки ADATA всё-таки немного ниже, чем у Samsung 970 EVO Plus.
⇡#Производительность при реальной нагрузке
При реальной работе с файлами ADATA XPG SX8200 Pro оказывается вовсе не так хорош, как можно было бы ожидать, глядя на результаты PCMark 8 и CrystalDiskMark. В контроллере SM2262EN разработчики пожертвовали скоростью смешанных операций, и это вызвало понижение скорости всех файловых операций в пределах накопителя. Кроме того, из-за отложенного освобождения SLC-кеша, который в типичном состоянии уже заполнен данными более чем наполовину, ADATA XPG SX8200 Pro оказывается даже медленнее предшественника, занимая на диаграммах лишь позицию среднего по скорости SSD, но никак не флагмана.
В смоделированных нами реальных сценариях загрузки игр и приложений ADATA XPG SX8200 Pro демонстрирует или такую же, как у XPG SX8200, или чуть худшую производительность. В результате этот накопитель выглядит привлекательно лишь на фоне прошлогодних SSD, но до современного Samsung 970 EVO Plus ему оказывается ещё дальше, чем его предшественнику. Иными словами, достойным конкурентом свежего NVMe SSD южнокорейского производителя обновлённый накопитель ADATA стать не может при всём желании.
⇡#Деградация и восстановление производительности
Наблюдение за изменением скорости записи в зависимости от объёма записанной на диск информации — важный эксперимент, позволяющий понять работу внутренних алгоритмов накопителя. В данном тесте мы загружаем SSD непрерывным потоком запросов на случайную запись 4-килобайтных блоков с очередью максимальной глубины и попутно следим за той производительностью, которая при этом наблюдается. На приведённом ниже графике в виде точек отмечены результаты измерений моментальной производительности, которые мы снимаем ежесекундно, а чёрная линия показывает среднюю скорость, наблюдаемую в течение 30-секундного интервала.
Всё закономерно. Первые 80 Гбайт данных, которые попадают в SLC-кеш чистого накопителя, делают это с достаточно высокой скоростью — на уровне 260 тысяч IOPS. После заполнения кеша производительность записи падает до 110 тысяч IOPS. Этот показатель выдерживается до тех пор, пока в массиве флеш-памяти не заканчивается свободное место, после чего производительность снижается дополнительно. Если эти показатели сопоставить с тем, какое быстродействие показывают другие современные NVMe-накопители, то окажется, что ADATA XPG SX8200 Pro стал хуже по сравнению с предыдущей версией, XPG SX8200, и уж тем более не дотягивает до уровня Samsung 970 EVO Plus. В качестве иллюстрации этого тезиса можно привести тот факт, что за время двухчасового теста на XPG SX8200 Pro нам удалось записать 1,3 Пбайт данных, в то время как обычный XPG SX8200 за тот же срок смог принять 1,5 Пбайт, а на Samsung 970 EVO Plus удалось записать более 1,8 Пбайт данных. Получается, что по скорости записи ADATA XPG SX8200 Pro интересен лишь до тех пор, пока эта запись осуществляется в рамках SLC-кеша.
Посмотрим теперь, как происходит восстановление скоростных характеристик до первоначальных величин за счёт работы технологии сборки мусора. Для исследования этого вопроса после завершения предыдущего теста, приводящего к снижению скорости записи, мы выжидаем 15 минут, в течение которых SSD может попытаться самостоятельно восстановиться за счёт сборки мусора, но без помощи со стороны операционной системы и команды TRIM, и замеряем быстродействие. Затем на накопитель принудительно подаётся команда TRIM — и скорость измеряется ещё раз, что позволяет убедиться в способности SSD с помощью TRIM полностью восстанавливать свою паспортную производительность.
Тест реакции накопителя на TRIM преподносит ещё один сюрприз: после подачи этой команды на накопитель мы не смогли получить тот же уровень производительности, который демонстрировал чистый SSD «из коробки». И дело тут вновь в том, как ADATA XPG SX8200 Pro работает со своим SLC-кешем. Подача команды TRIM активирует сборку мусора в основном массиве памяти, но на содержимое кеша она, как следует из результатов, не распространяется. Алгоритмы освобождения SLC-кеша у нового накопителя работают сами по себе и с большой задержкой, поэтому выходит так, что скоростная запись даже после подачи TRIM включается не в полную силу, а лишь для относительно небольшого объёма данных (порядка 6,5 Гбайт). Иными словами, все традиционные плюсы динамического SLC-кеширования в XPG SX8200 Pro нейтрализованы отложенным ради повышения результатов в бенчмарках освобождением кеша.
Давайте теперь посмотрим, насколько тяжело контроллеру SM2262EN даётся обработка TRIM. Когда операционная система передаёт накопителю информацию о том, что какие-то сектора выводятся файловой системой из обращения, контроллер SSD должен консолидировать эти сектора и очистить освобождающиеся страницы флеш-памяти для выполнения будущих операций. Такая перегруппировка требует перезаписи и очистки областей памяти, и это не только занимает заметное время, но и серьёзно нагружает контроллер работой. В результате после удаления с диска больших объёмов данных владельцы SSD могут столкнуться с эффектом временного замедления или даже с «фризами» накопителя. На практике это может вызвать серьёзный дискомфорт, ведь никто не ожидает, что SSD, основным достоинством которого является моментальная реакция на внешние воздействия, будет замирать на несколько секунд.
Поэтому мы добавили в методику дополнительное исследование, которое позволяет отслеживать, насколько незаметно для пользователя тот или иной SSD обслуживает команды TRIM. Способ проверки очень прост: сразу после удаления крупного файла — объёмом 32 Гбайт — мы проверяем, как накопитель справляется с операциями произвольного чтения данных, контролируя как скорость чтения, так и время ожидания, которое проходит с момента каждого запроса данных до ответа накопителя.
После удаления файла объёмом 32 Гбайт накопителю нужно около 3 секунд, чтобы привести себя в норму. В течение этого срока он перестаёт реагировать на внешние воздействия практически полностью. Время отклика вырастает до десятых долей секунды, а производительность падает до нуля даже при чтении. Поведение не из приятных, но справедливости ради стоит заметить, что у ADATA XPG SX8200 Pro обработка TRIM выполняется как минимум не медленнее, чем у предшественника.
⇡#Проверка температурного режима
Хотя ADATA XPG SX8200 Pro похож на своего предшественника, ситуация с температурным режимом могла легко поменяться, ведь обновлённый накопитель использует сильно видоизменённые алгоритмы. И хотя в спецификациях контроллера SM2262EN значатся точно такие же показатели TDP, как и для SM2262, практическая проверка не помешает.
В тестировании мы последили за температурным режимом накопителя при его нагрузке последовательными операциями с глубиной очереди запросов в 32 команды. Измерения проводились на открытом стенде, какого-либо дополнительного обдува SSD воздушным потоком не было. Перед проведением теста на ADATA XPG SX8200 Pro была установлена идущая в комплекте теплораспределительная пластина, поскольку это – штатная для данного SSD система охлаждения.
Как видно из графиков, полутерабайтная версия ADATA XPG SX8200 Pro способна работать без какого-либо перегрева как при чтении, так и при записи. Троттлинг у контроллера SM2262EN включается по достижении 75 градусов, но разогреть непрерывными запросами тестируемый SSD до такой температуры нам не удалось.
Всё это отражает достаточно позитивную тенденцию – проблема перегрева затрагивает современные модели NVMe SSD всё реже и реже. И ADATA XPG SX8200 Pro стал ещё одним накопителем, который можно эксплуатировать в десктопах, не задумываясь о том, что он нуждается в каком-то специальном охлаждении.
Ожидания в связи с появлением на рынке ADATA XPG SX8200 Pro были крайне высокими. И сама компания ADATA, и разработчики контроллера SM2262EN в лице Silicon Motion всеми силами создавали вокруг этого накопителя образ улучшенной версии XPG SX8200, которая должна сокрушить передовые потребительские NVMe SSD, включая и недавно появившийся Samsung 970 EVO Plus. Однако проведённое тестирование показало, что новый XPG SX8200 Pro в действительности не быстрее своего предшественника, а вся проделанная оптимизация носит «читерский» характер и направлена лишь на увеличение показателей в типовых бенчмарках, которыми пользуются пользователи и большинство обозревателей.
Новый накопитель ADATA почти не отличается от предшественника по аппаратной начинке, опирается на такой же массив флеш-памяти, но использует более новую модификацию контроллера с видоизменённой микропрограммой. При этом главное нововведение касается стратегии работы SLC-кеша: теперь он ускоряет как операции записи, так и операции чтения только что записанных данных. Для этого освобождение SLC-кеша после очередной записи в XPG SX8200 Pro происходит с существенной задержкой. Но на самом деле такой подход эффективен исключительно для бенчмарков, а при реальных нагрузках он преимущества не даёт и дать не может. Тем не менее это не помешало ADATA, опираясь на данный аргумент, выставить свой новый накопитель в качестве решения нового поколения со значительно увеличенным быстродействием.
Но не стоит верить рекламе: как показывают результаты подробного тестирования, в реальных сценариях ADATA XPG SX8200 Pro почти всегда работает немного медленнее, чем обычный XPG SX8200. Преимущество новинки можно увидеть лишь в двух специфических случаях. Во-первых, при записи небольших объёмов данных, которые полностью попадают в SLC-кеш. И во-вторых, при чтении только что записанных данных. Оба сценария возникают в реальном использовании нечасто, поэтому наше мнение о XPG SX8200 Pro совершенно не совпадает с тем, что говорит про свой накопитель производитель, да и многие обозреватели, не практикующие углублённое изучение SSD.
Не видно у ADATA XPG SX8200 Pro улучшений и по иным направлениям. Стоит он как минимум не меньше предшественника, на него распространяются точно такие же условия гарантии, да и вообще вряд ли обновлённый накопитель чем-то отличается по надёжности, ведь в его основе лежит та же самая флеш-память – Micron TLC 3D NAND второго поколения. В итоге единственное преимущество XPG SX8200 Pro – немного увеличившиеся объёмы членов модельного ряда.
И этого явно недостаточно, чтобы мы посчитали новый флагман ADATA интересным предложением: при выборе между Pro и обычной версией XPG SX8200 (и Gammix S11) мы советуем по-прежнему обращать внимание на куда более удачную прошлую версию, которая не была испорчена попытками разработчиков поднять показатели в бенчмарках. Беда лишь в том, что она уже снята с производства и новых поставок больше не ожидается.
В конечном итоге никакого конкурента для Samsung 970 EVO Plus из ADATA XPG SX8200 Pro не получилось даже и близко. Новый накопитель Samsung остаётся безальтернативным лидером в сегменте массовых SSD. И после появления в отечественной рознице южнокорейской новинки рассмотренный в этом обзоре продукт ADATA может представлять интерес лишь для тех покупателей, которые захотят сэкономить. ADATA продолжает придерживаться очень агрессивной ценовой политики, и с точки зрения соотношения цены и производительности XPG SX8200 Pro всё равно остаётся весьма интересным вариантом. Но от заданного компанией Samsung флагманского уровня ADATA XPG SX8200 Pro, к сожалению, оказался слишком далек — в плане как быстродействия, так и поддержки. |
983,721 | Обзор смартфона BQ Strike Power/Strike Power 4G: бюджетный долгожитель | В то время как A-бренды соревнуются в размещении максимального количества камер в своих флагманах и наперебой предлагают гибкие аппараты, основные продажи в мире по-прежнему приходятся на бюджетный сегмент, который переваривает все инновации не спеша и избирательно.
BQ Strike Power – классический пример бюджетного аппарата, в котором отброшено все условно лишнее: дизайнерские изыски, мощная аппаратная платформа или двойная камера. Это традиционный смартфон, в котором главная ставка сделана на емкий аккумулятор (5000 мА·ч).
В обзоре представлены две версии Strike Power – они различаются аппаратными платформами (Mediatek MT6739 и Mediatek MT6580), а также наличием в старшей версии LTE-модуля, что и зафиксировано в имени. В остальном это совершенно идентичные внешне и — по большей части — внутренне смартфоны.
|
BQ Strike Power 4G (BQ-5514L) |
BQ Strike Power (BQ-5514G) |
BQ Twin Pro
|
Дисплей |5,45 дюйма, IPS, 1440 × 720 точек, 295 ppi, емкостный, мультитач
|5,45 дюйма, IPS, 1440 × 720 точек, 295 ppi, емкостный, мультитач
|5,5 дюйма, IPS, 1920 × 1080 точек, 401 ppi, емкостный, мультитач
|
Защитное стекло |Нет информации
|Нет информации
|Нет информации
|
Процессор |MediaTek MT6739ww: четыре ядра ARM Cortex-A53 (4 × 1,5 ГГц)
|MediaTek MT6580: четыре ядра ARM Cortex-A7 (4 × 1,3 ГГц)
|MediaTek MT6750T: восемь ядер ARM Cortex-A53 (4 × 1,6 ГГц + 4 × 1,0 ГГц)
|
Графический контроллер |IMG PowerVR GE8100, 570 МГц
|ARM Mali-400 MP, 416 МГц
|ARM Mali T860MP, 650 МГц
|
Оперативная память |1 Гбайт
|1 Гбайт
|4 Гбайт
|
Флеш-память |8 Гбайт
|8 Гбайт
|32 Гбайт
|
Разъемы |MicroUSB, 3,5 мм
|MicroUSB, 3,5 мм
|MicroUSB, 3,5 мм
|
Слот для карты памяти |Есть
|Есть
|Есть
|
SIM-карты |2 × nano-SIM + microSD (раздельный)
|2 × nano-SIM + microSD (раздельный)
|2 × nano-SIM + microSD (раздельный)
|
Сотовая связь 2G |GSM 850/900/1800/1900
|GSM 850/900/1800/1900
|GSM/GPRS/EDGE
|
Сотовая связь 3G |WCDMA 900/2100
|WCDMA 900/2100
|WCDMA
|
Сотовая связь 4G |LTE Cat. 4 (150 Мбит/с, 50 Мбит/с), диапазоны 1, 3, 7, 20
|Нет
|LTE Cat. 4 (150 Мбит/с, 50 Мбит/с), диапазоны 1, 3, 7, 20
|
Wi-Fi |802.11 b/g/n 2,4 ГГц
|802.11 b/g/n 2,4 ГГц
|802.11 a/b/g/n 2,4/5 ГГц
|
Bluetooth |4.0
|4.0
|4.0
|
NFC |Нет
|Нет
|Нет
|
Навигация |GPS, A-GPS, ГЛОНАСС
|GPS, A-GPS, ГЛОНАСС
|GPS, A-GPS, ГЛОНАСС
|
Датчики |Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|
Сканер отпечатков пальцев |Есть
|Есть
|Есть
|
Основная камера |13 Мп, ƒ/2,0, автофокус, светодиодная вспышка
|13 Мп, ƒ/2,0, автофокус, светодиодная вспышка
|Двойной модуль: 13 Мп, ƒ/2,2 + 2 Мп, автофокус, светодиодная вспышка
|
Фронтальная камера |8 Мп, без автофокуса, со вспышкой
|8 Мп, без автофокуса, со вспышкой
|8 Мп, без автофокуса, со вспышкой
|
Питание |Несъемный аккумулятор: 19 Вт·ч (5000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 19 Вт·ч (5000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 11,7 Вт·ч (3080 мА·ч, 3,8 В)
|
Размер |146,5 × 71 × 10,4 мм
|146,5 × 71 × 10,4 мм
|154 × 77 × 8,2 мм
|
Масса |175 г
|175 г
|154 г
|
Защита от воды и пыли |Нет
|Нет
|Нет
|
Операционная система |Android 8.1 Oreo (Android Go)
|Android 8.1 Oreo (Android Go)
|Android 8.0 Oreo, собственная оболочка
|
Актуальная цена |6 990 рублей
|6 490 рублей
|9 990 рублей
⇡#
**Дизайн, программное обеспечение и эргономичность**
Внешне BQ Strike Power – пример утилитарного подхода к дизайну смартфонов. Из не совсем типичных для бюджетных устройств особенностей отмечаем вытянутый дисплей формата 18:9. Впервые он появился на смартфонах два года назад, но все-таки в сегмент моделей за 6-7 тысяч рублей подобные новшества проникают небыстро.
В остальном – чистая классика. Толщина корпуса (10,4 мм) продиктована сочетанием относительно небольшого (5,45 дюйма) дисплея и очень емкого аккумулятора. Крупные рамки вокруг экрана смотрятся слегка архаично в век погони за абсолютной безрамочностью, зато у BQ получилось вынести во фронтальную плоскость не только камеру, но и вспышку.
Спинка частично прикрыта металлической крышкой с пластиковыми вставками сверху и снизу, необходимыми для нормальной работы антенн. Крышка, к слову, слегка изогнута по краям, за счет чего держать смартфон в руке удобно. Общие габариты BQ Strike Power (на самом деле обоих рассматриваемых аппаратов — внешне они не различаются ничем) – 146,5 × 71 × 10,4 мм. Да, про толщину я уже сказал, она внушительная, но в остальном это комфортный в управлении гаджет, им вполне можно пользоваться одной рукой.
Есть, правда, и непривычный по состоянию на 2019 год архаизм – основной динамик, вынесенный на заднюю панель. Если держать устройство на столе экраном вверх, звук будет приглушенным. Мощности динамику хватает, чтобы «донести известие» о звонке и в соседнюю комнату, но если вы, например, смотрите какое-нибудь видео по Youtube, параллельно делая что-то еще, – ситуация менее приятная.
Из прелестей, доступных сегодня чаще всего именно в бюджетных смартфонах, стоит сказать о мини-джеке. Гоняться за модой с отказом от 3,5-мм разъема, создавая бюджетный смартфон, не пристало: мини-джек на месте. В данном случае – на верхней панели.
Цветовых исполнений – по пять для каждой версии: черное, серое, серебряное, золотое и красное.
Еще один момент, уже окончательно проникший и в бюджетный сегмент, наряду с металлом в оформлении корпуса, – сканер отпечатков пальцев. Это традиционный емкостный сенсор, который располагается на задней панели – в идеальном для этого месте, на мой взгляд, как бы ни экспериментировали с его расположением самые разные компании. Он попадает точно под указательный палец что левой, что правой руки — не надо перехватывать смартфон, чтобы его разблокировать.
BQ Strike Power поставляется с операционной системой Google Android 8.1 в версии Android Go, специально адаптированной под работу с маломощными гаджетами. Вторжение BQ в ОС минимально – предустановленные обои да некоторый набор дополнительного софта, характерного для смартфонов этой марки (от «Сбербанка» до фирменного приложения футбольного клуба «Спартак»). Некоторые базовые приложения Google подменены облегченными версиями Go. Опыт их использования почти не отличается, но запускаются они быстрее, что очень критично для смартфона с одним гигабайтом оперативной памяти.
Дисплей, казалось бы, априори не может быть достоинством ультрабюджетного смартфона – используется дешевая матрица, почти гарантировано низкое разрешение. Тот момент, который надо перетерпеть, если хотите заплатить за смартфон по-настоящему мало. Но BQ Strike Power умудряется несколько нарушить эти ожидания приятным образом. Да, тут 5,45-дюймовый экран с HD-разрешением (1440 × 720) и совсем невыдающейся плотностью пикселей — 295 на дюйм, но при этом установленная IPS-матрица демонстрирует весьма приличные углы обзора. Что, в принципе, ожидаемо. Куда менее ожидаемо, что здесь есть неплохое олеофобное покрытие – отпечатки пальцев с прикрывающего лицевую панель стекла оттираются без проблем. Сенсорный слой поддерживает жесты мультитач, но только с пятью максимальными касаниями.
Про формат дисплея я уже упоминал выше – это 18:9. За счет этого площадь покрытия лицевой панели дисплеем выше, чем даже у старшей модели BQ, Twin Pro. Но — и это главный сюрприз — выше и все остальные показатели!
В BQ Strike Power 4G установлен по-настоящему яркий дисплей. Максимальный замеренный уровень яркости – 512 кд/м
2 . Мы не можем сравнить этот смартфон напрямую с конкурентами просто потому, что тестов ультрабюджетников у нас не было очень давно, но у многих более дорогих смартфонов Strike Power 4G выигрывает без труда. Чего не скажешь об «обычном» Strike Power – я не стал измерять параметры его дисплея, но разница в яркости со старшей версией видна невооруженным глазом на совместном фото в начале материала.
Еще более поразителен при такой яркости и уровень контрастности – 1355:1. Для ЖК-экрана это очень серьезный показатель.
И настроен дисплей, со скидкой на класс смартфона, приемлемо. Средняя гамма оттенков серого составляет 2,15 при относительно стабильном поведении кривых на большей части спектра. Цветовая температура завышена, но примерно так же, как и у большинства остальных современных телефонов, – колеблется между 7 500 и 9 000 К. Цветовое пространство примерно соответствует стандарту sRGB, но заметно смещено в сторону. Среднее отклонение DeltaE по расширенной палитре Color Checker (оттенки серого + широкий набор цветовых оттенков) составляет 6,50. Это довольно далеко от нормы (3,00), но опять же c учетом класса смартфона показатель нормальный.
В BQ Strike Power, напомню, есть мини-джек, позволяющий подключить традиционные наушники без использования переходника. Запас мощности достаточный, чтобы не переживать из-за недостатка громкости в шумном помещении или транспорте. Качество звука, правда, посредственное. Bluetooth есть, но без поддержки протоколов aptX или LDAC – передача звука высокого разрешения без проводов невозможна.
**«Железо» и производительность**
Если в вопросах, связанных с дисплеем, BQ Strike Power (в версии 4G) смог удивить, то во всем, что касается производительности, – увы, нет. Обе модели закономерно оснащены маломощными платформами. Версия 4G – свежей MediaTek MT6739ww с четырьмя ядрами ARM Cortex-A53 с тактовой частотой 1,5 ГГц. Версия 3G – уже совсем немолодой MediaTek MT6580 с четырьмя ядрами ARM Cortex-A7 (без поддержки 64-разрядных вычислений! В 2019 году!). Я протестировал старшую модель – и результаты, показанные даже ей, совсем не впечатляют.
Платформа производится по 28-нм техпроцессу, и главным ее достоинством по сравнению с позапрошлогодней MT6737 можно считать новый графический подпроцессор Imagination Technologies PowerVR GE8100 с тактовой частотой 570 МГц. Но по факту рассчитывать даже на то, что игры с серьезной графикой будут хотя бы запускаться на Strike Power, не приходится. Например, классический бенчмарк AntuTu элементарно отказался здесь работать – то же произойдет и с большинством 3D-игр. Какие-то простые головоломки пойдут без проблем, но на большее не надейтесь. В каких-то случаях можно помочь себе активацией специального режима DuraSpeed, перераспределяющего мощности смартфона в пользу выбранного приложения, – он может выкинуть остальные программы из числа активных, зато вы получите некоторый прирост производительности.
Также нет смысла рассчитывать и на скорость работы базовых приложений – и сам смартфон запускается неспешно, и все приложения, от браузера до карт, требуют несколько секунд (от двух до 10-15) на то, чтобы заработать. Сказывается в числе прочего и критически малый для 2019 года объем оперативной памяти – 1 Гбайт. Android Go слегка скрашивает ситуацию, но, если честно, не влияет на нее радикальным образом.
Проблема BQ Strike Power 4G состоит еще и в слабой системе охлаждения – смартфон сильно нагревается при почти любой нагрузке, и система вынуждена включать троттлинг рабочих ядер. В итоге сильно снижается и так невысокая производительность платформы. В бенчмарке CPU Throttling Test средняя производительность составила 21,6 GIPS, а рабочая частота падала до 38 % от максимума. Увы, это очень слабые показатели.
Накопитель в BQ Strike Power 4G, равно как и в «обычном» Strike Power, установлен тоже очень небольшой – на 8 Гбайт. Радует, что без каких-либо проблем можно расширить объем доступной памяти при помощи microSD (емкостью до 128 Гбайт) – жертвовать вторым слотом для SIM-карты не нужно, он здесь тройной.
⇡#
**Связь и беспроводные коммуникации**
В тройной слот BQ Strike Power, помимо microSD, можно поместить две nano-SIM. Радиомодуль один, но в 4G-версии с сетями LTE работают обе симки. Модем платформы MediaTek MT6739 дружит с LTE максимум 4-й категории: наибольшая скоростью приема данных – 150 Мбит/с, передачи – 50 Мбит/с. BQ – компания российская, и она, выбирая китайские комплектующие, все-таки оптимизирует начинку под использование в России же. То есть все нужные диапазоны LTE поддерживаются.
NFC-модуля, как и в BQ Twin Pro, тут нет. Расплачиваться за покупки при помощи этого смартфона не получится, равно как и быстро знакомить его с разными беспроводными аксессуарами. Bluetooth – версии 4.0, Wi-Fi – однодиапазонный (802.11 b/g/n, гаджет видит сети только на 2,4 ГГц). Навигационный модуль работает с GPS (A-GPS) и ГЛОНАСС.
Версия BQ-5514G полностью повторяет в работе с беспроводными сетями версию BQ-5514L, за вычетом, само собой, LTE.
В BQ Strike Power обеих версий установлена одиночная тыльная камера с разрешением 13 мегапикселей и объективом, обладающим относительным отверстием
*ƒ*/2,0. Никаких сюрпризов – довольно типичная камера для мобильного устройства бюджетного класса.
Автофокус камеры BQ Strike Power работает довольно медленно и не очень стабильно – даже при идеальном освещении не всегда с первого раза можно получить сфокусированный объект в кадре. Есть одинарная светодиодная вспышка. Каких-то современных фишек вроде искусственного размытия заднего плана или оптического (гибридного) зума не предусмотрено.
Приложение камеры не изменилось – мы его видели уже, например, в BQ Twin Pro и ранее. Элементарная навигация, минимальное количество настроек, возможность вручную включить HDR-режим. Ручного режима, где можно было бы самостоятельно корректировать настройки, нет. Зато есть панорама. Работает приложение довольно быстро и без сбоев.
Качество съемки оставляет желать лучшего. Днем на Strike Power можно получить неплохой кадр, но даже при хорошем освещении от кадра к кадру пляшет баланс белого, уводя картинку то в более теплые тона, то в менее. Но в целом Strike Power все же склонен делать цвета более теплыми, чем они есть в реальности. У камеры маленький динамический диапазон, и, как и следовало ожидать от ультрабюджетника, серьезные проблемы при съемке в темноте.
BQ Strike Power умеет снимать видео с разрешением вплоть до Full HD.
Фронтальная камера в BQ Strike Power такая же, как и в Twin Pro, – 8 мегапикселей, объектив светосилой
*ƒ*/2,2. В ней нет автофокуса, зато есть редкая по нынешнему времени вспышка. По качеству съемки она примерно на одном уровне с тыльным модулем.
Главное достоинство обоих BQ Strike Power – очень емкая батарея. Здесь использован литий-ионный аккумулятор емкостью 19 Вт·ч (5000 мА·ч, 3,8 В). В сочетании с относительно небольшим дисплеем (5,45 дюйма) и платформой, очевидно не требующей очень много ресурсов, это в теории должно давать внушительный запас автономности. BQ заявляет о трех днях работы без подзарядки. И реальность к этому, в принципе, приближается – при обычном сценарии использования смартфона заряжать Strike Power 4G (тестировался именно этот смартфон) чаще чем раз в 2-2,5 дня не нужно.
Неплохо держится Strike Power 4G и при серьезной нагрузке, например при непрерывном воспроизведении видео. В нашем традиционном тесте с воспроизведением HD-видео, на максимальной яркости, при включенных беспроводных модулях и активных обновлениях, смартфон продержался почти 12 часов. В соревновании с другими аппаратами, оснащенными ЖК-дисплеями, долгожитель BQ явно выделяется в лучшую сторону.
В качества порта для зарядки используется microUSB. С оригинальным кабелем и адаптером батарея заполняется примерно за 3,5 часа, какой-либо системы быстрой зарядки нет.
BQ Strike Power/Strike Power 4G создан для тех, кому автономность важнее всех остальных характеристик смартфона. Впрочем, у этой модели есть и еще несколько важных для бюджетного телефона достоинств: сканер отпечатков, металлическая задняя крышка, неплохая сборка, «чистый» Android Go. Вполне нормальный выбор для тех, кто не хочет тратить на новый смартфон более семи тысяч рублей.
**Достоинства:** **Недостатки:** |
983,730 | MWC 2019: золотые китайские смартфоны, пчёлы с LTE и другие самые странные новинки | О главных новинках выставки MWC 2019 — флагманах от именитых производителей, а также технологии связи 5G — мы уже рассказали достаточно подробно. Теперь расскажем о самых странных и неоднозначных решениях, представленных на выставке.
В большинстве своём это необычные смартфоны от китайских производителей, которые никогда не боялись создавать что-то нестандартное. Однако в этом году и некоторые мировые производители разродились весьма необычными решениями. Ну и конечно, не обошлось без просто странных устройств, совсем не обязательно помещающихся в карман. Чего только стоит подключённый к LTE пчелиный улей! Да, уже и такое придумали, но подробнее об этом ниже.
**Nubia Alpha**
Начнём, конечно, с самого необычного гаджета — Nubia Alpha. По сути, это гибрид смартфона и «умных» часов, или, если хотите, телефон, который можно надеть на запястье. Сам производитель называет его «носимым смартфоном».
Устройство оснащено гибким сенсорным дисплеем диагональю 4 дюйма, который опоясывает руку. Дисплей вытянутый, с соотношением сторон 36:9 и разрешением всего 960 × 192 точки. Помимо сенсорного ввода поддерживается и жестовое управление (тут помогает специальный датчик слева от дисплея). А справа от экрана имеется 5-мегапиксельная камера для фото и видео. Правда, с её помощью получится снимать в основном себя. Чтобы делать кадры с другими сюжетами, придётся изловчиться.
Помимо форм-фактора, на близость Nubia Alpha к «умным» часам указывает и процессор устройства. Здесь использована платформа Snapdragon Wear 2100, которая включает в себя четыре ядра Cortex A7 с частотой 1,2 ГГц. Имеется 1 Гбайт оперативной и 8 Гбайт встроенной памяти. С помощью Bluetooth 4.1 можно подключить беспроводные наушники. Есть поддержка Wi-Fi 802.11n и LTE. Имеется и датчик сердечного ритма, а также счётчик шагов. Для питания используется батарея всего на 500 мА·ч, которой, по мнению производителя, хватит на два дня использования смартфона-часов.
**Energizer Power Max P18K Pop**
Бренд Energizer известен многим по батарейкам и прочим элементам питания. Видимо, поэтому в качестве одной из ключевых особенностей смартфонов Energiser компания Avenir Telecom, которая владеет этим брендом, выбрала не что иное, как батареи повышенной ёмкости. Однако на MWC 2019 производитель превзошёл самого себя, представив публике уникальный смартфон Power Max P18K Pop.
Аккумулятор новинки обладает ёмкостью в... 18 000 мА·ч! По словам производителя, в режиме ожидания смартфон способен продержаться до 50 дней, а режиме разговора Power Max P18K Pop должен жить на протяжении 90 часов. То есть можно непрерывно болтать по телефону почти четверо суток! В качестве альтернативы можно 100 часов слушать музыку или двое суток смотреть видео.
Новинка построена на однокристальной платформе MediaTek Helio P70. Этот чип объединяет четыре ядра ARM Cortex-A73 с частотой до 2,1 ГГц и четыре ядра ARM Cortex-A53 с частотой до 2,0 ГГц. Обработкой графики занят ускоритель ARM Mali-G72 MP3. Имеется тут 6 Гбайт оперативной и 128 Гбайт встроенной памяти. Отметим и наличие двойной выдвижной фронтальной камеры-перископа, которая построена на 16-Мп и 2-Мп датчиках изображения. Сзади расположилась тройная камера с сенсорами на 12, 5 и 2 Мп.
Конечно, столь большая батарея не могла уместиться в более или менее стандартный корпус. Толщина Power Max P18K Pop составляет 18 мм. Всё логично: 18 000 мА·ч в 18-мм корпусе. Вес устройства не уточняется, но по ощущениям новинка весьма увесистая. Лёжа в кровати, такой смартфон лучше не держать над лицом, мало ли что. В целом новинка выглядит скорее как внешний аккумулятор со встроенным смартфоном, чем наоборот. Устройство весьма спорное, но в современном мире потребители, конечно, найдутся на всё что угодно.
**Китайские смартфоны повышенной прочности**
Не менее странно для рядовых пользователей выглядят и так называемые неубиваемые китайские смартфоны. Все они облачены в мощные прорезиненные корпуса, которые делают их устойчивыми не только к воздействию пыли и влаги, но и к падениям или ударам. Они должны быть способны выдержать повышенные и пониженные температуры, а также многие другие негативные воздействия.
Одним из таких смартфонов является Blackview BV9700 Pro. Это первый смартфон Blackview, у которого появилась поддержка сетей пятого поколения за счёт модема MediaTek Helio M70. А рядом с данной новинкой расположился похожий смартфон BV9500, который обладает встроенной рацией с радиусом действия до 4 км. Выглядят все новинки Blackview 9000-й серии весьма похожими друг на друга. У каждой из них в наличии большой дисплей, массивный корпус, большая батарея и платформа MediaTek.
Компания Doogee представила на MWC 2019 защищённый смартфон под названием Doogee S90. Да, это защищённый модульный смартфон. Производитель предлагает для него ряд аксессуаров, которые крепятся к задней крышке и расширяют функциональность S90 — наподобие Moto Mods от Motorola. Таким образом смартфону можно добавить дальнобойную рацию (400–480 МГц) или поддержку 5G. Есть модуль-геймпад для любителей игр, а также модуль с камерой для съёмки в тёмное время суток. И конечно, доступен модуль с дополнительным аккумулятором на 5000 мА·ч.
А смартфон Land Rover Explorer и вовсе демонстрировался вмёрзшим в глыбу льда. Возможно, таким образом нам хотели показать, что, в отличие от многих других смартфонов, данное устройство устойчиво к низким температурам и на морозе не будет терять заряд батареи слишком быстро. Интересно, что также посетители стенда могли протестировать надёжность смартфона Land Rover Explorer в ящике с песком и в водной среде. И надо сказать, тестирование песком экран смартфона выдерживает не слишком хорошо, зато аппарат остаётся в рабочем состоянии.
**Прочие необычные смартфоны**
Гуляя по залам MWC 2019, мы также наткнулись на стенд французского бренда Hanmac. Под этим брендом выпускаются смартфоны и мобильные телефоны класса люкс для китайского рынка. Эти устройства выполнены в корпусах из дорогих материалов, включая кожу различных животных, в том числе змеиную или крокодилью, а также золото и серебро. Стоят они соответственно — до $4 000.
С точки зрения характеристик данные устройства отнюдь не впечатляют, но им это и не надо. Они берут своё внешностью (весьма спорной, надо сказать). Сам производитель утверждает, что ставит перед собой цель создавать устройства, которые кардинально отличаются от других. Покупая подобный смартфон, пользователь будет уверен, что такого больше ни у кого из его окружения нет. Собственно, они правы — желающих обзавестись таким аппаратом едва ли будет много, так что чувство собственной уникальности вам почти гарантировано.
А вот китайский бренд Lesia («Леся») нам просто приглянулся своим названием. Есть в нём что-то близкое нашему уху. Также своим названием привлекли наше внимание и беспроводные наушники ebeb («Ебеб»). А на стенде компании IMG мы нашли трендовые кнопочные телефоны: они выполнены в корпусе с градиентной окраской.
Китайская компания TCL, помимо новых смартфонов начального уровня под брендом Alcatel, также показала прототипы своих гибких смартфонов и собственные гибкие OLED-дисплеи. Пока что такие устройства находятся на стадии разработки, и компания планирует выпуск подобных смартфонов только в 2020 году. Однако данная демонстрация показывает, что TCL работает в данном направлении и не собирается отставать от лидеров рынка.
**Прочие странные устройства**
Однако не только производители смартфонов сумели отличиться весьма необычными новинками. Так, на одном из стендов нам попался улей с возможностью подключения к LTE-m. По задумке, подключив улей к Сети, пчеловод сможет в любой момент проконтролировать уровень влажности и температуру внутри жилища пчёл, а также их перемещения.
Ещё система способна анализировать собранные данные и предлагать на их основе советы по повышению производительности улья. В конечном счёте это позволяет увеличить популяцию пчёл и снижает издержки по содержанию улья.
В свою очередь, китайская компания Royole, которая прославилась на CES 2019 анонсом первого в мире смартфона с гибким дисплеем, показала на своём стенде на MWC 2019 различные варианты использования гибких дисплеев. Например, производитель считает, что гибкие дисплеи можно применять на одежде или аксессуарах вроде дамских сумочек или шляп.
Отметим также, что за время, прошедшее с момента демонстрации гибкого смартфона FlexPie на выставке CES 2019, компания Royole провела немалую работу по его улучшению. Нет, с точки зрения дизайна всё осталось так же, как было, это по-прежнему весьма громоздкий и странный смартфон. Но производитель потрудился над интерфейсом — он стал работать куда более плавно. Теперь при сгибании почти мгновенно отключается неиспользуемая часть дисплея, а при разгибании смартфон быстро активирует весь дисплей и переходит в планшетный режим.
**Странные решения известных производителей**
А в завершение хотелось бы отметить несколько необычных решений от компаний, известных во всём мире. Да, не только китайские производители чудят со своими смартфонами. Иногда весьма странные решения рождаются и у именитых брендов.
В первую очередь сюда хотелось бы отнести компанию LG с её смартфоном V50 ThinQ 5G и чехлом Dual Screen для него. Данный чехол наделяет смартфон вторым дисплеем. У этого решения есть немало способов применения. Например, можно использовать сразу два приложения на разных экранах либо на один дисплей вывести приложение, а на другой — клавиатуру для более удобного ввода текста. В играх и вовсе можно использовать на одном из дисплеев виртуальный геймпад, что предусмотрела сама LG. Вариантов уйма, только вот надо ли это кому-либо?
V50 ThinQ 5G в данном чехле выглядит весьма своеобразно, ведь аксессуар немало добавляет к толщине, а также весу смартфона. К тому же дисплей у чехла менее качественный, чем у телефона, и обладает иной цветопередачей. Наконец, производитель не предусмотрел возможности изменять угол наклона дополнительного дисплея, что также ограничивает пользователя. В общем, решение довольно спорное и вряд ли станет популярным среди пользователей.
Другим довольно странным смартфоном от известного бренда, на мой взгляд, является Xperia 1 от компании Sony. Его странность заключается в очень вытянутом дисплее с соотношением сторон 21:9. По словам Sony, это дисплей кинематографического формата и он позволяет лучше потреблять видеоконтент, ведь подавляющее большинство фильмов монтируется именно в таком формате.
Более того, Sony пошла дальше и оснастила подобным дисплеем также и модели среднего уровня Xperia 10 и 10 Plus. Однако давайте будем честны — как часто мы смотрим полнометражные фильмы на своих смартфонах? Всё же для этого есть куда лучше приспособленные устройства. Впрочем, стоит заметить, что такие вытянутые дисплеи, лишённые к тому же пресловутых «чёлок», смотрятся весьма необычно и интересно. Возможно, у такого формата найдутся плюсы не только в отношении просмотра видео.
Наконец, нельзя не упомянуть о смартфоне Nokia 9 PureView, в котором применены сразу пять тыльных камер. Задумка заключается в том, что все пять камер снимают синхронно, создавая более качественную и детализированную фотографию и, при активации специального режима, позволяя выбирать точку фокусировки постфактум. На текущий момент это одна из самых необычных мобильных камер.
В качестве заключительного слова. Пусть многие из вышеперечисленных устройств кажутся странными, но и смелости их создателям зачастую не занимать — радует, что производители стараются создавать что-то уникальное, пусть порой с этим старанием они и забредают в дебри. Речь, конечно, обо всём представленном в этой подборке, за исключением «элитных» китайских смартфонов. Это откровенная «дичь». |
983,777 | Компьютер месяца — март 2019 года | Очередной выпуск «Компьютера месяца» традиционно выходит при поддержке компьютерного магазина «Регард», у которого есть представительства с возможностью самовывоза товара в Москве. К тому же на сайте вы всегда можете оформить доставку в любую точку нашей страны. Подробности можете прочитать на этой странице. «Регард» среди пользователей славится достаточно адекватными ценами на компьютерные комплектующие и большим выбором продукции. К тому же у магазина есть услуга по бесплатной сборке: вы составляете конфигурацию — сотрудники фирмы ее собирают.
Небольшое дополнение. «Регард» — наш рекламный партнер, и вполне очевидно, что и нам, и магазину выгодно такое сотрудничество. Раз у нас есть определенные обязательства, то я не могу в «Компьютере месяца» в тех же таблицах ссылаться на другие торговые площадки, такие как «Яндекс.Маркет», «Ситилинк», DNS, Computeruniverse и другие. Странно, что не все понимают этот момент. В любом случае все сборки, отображенные в «Компьютере месяца», — это всего лишь ориентир. Берите комплектующие там, где вам удобнее/выгоднее/проще. Прочитали статью, сравнили с предложениями и ценами в магазинах своего города, приняли решение о покупке устройств(а) — именно такую цепочку я вижу, если вам действительно необходим новый ПК. Тем же, кто следит за рубрикой с одной лишь целью — посмотреть, как обстоят дела на нашем рынке и как эволюционируют игровые системы, вообще должно быть без разницы, откуда берутся данные для этой статьи.
Ссылки в «Компьютере месяца» ведут на соответствующие категории товаров магазина. Кроме того, в таблицах указаны актуальные на момент написания статьи цены, округленные в большую сторону до значения, кратного 500 рублям. Естественно, за время «жизненного цикла» материала (один месяц со дня публикации) стоимость определенных товаров может как увеличиться, так и уменьшиться. К сожалению, я не могу каждый день исправлять таблицы в статье.
Для новичков, которые все никак не решаются самостоятельно «смастерить» себе ПК, вышло подробное пошаговое руководство по сборке системного блока. Получается, что в «Компьютере месяца» я рассказываю, из чего собрать компьютер, а в руководстве — как это сделать.
«Входной билет» в мир современных ПК-игр. Система позволит играть во все ААА-проекты в разрешении Full HD на средних или высоких настройках качества графики. Подобные системы не имеют серьезного запаса прочности (на ближайшие 2-3 года), изобилуют компромиссами, но и стоят меньше остальных конфигураций.
|
Стартовая сборка
|
Процессор |AMD Ryzen 3 2300X, 4 ядра, 3,5 (4,0) ГГц, 8 Мбайт L3, AM4, OEM
|7 000 руб.
|Intel Pentium Gold G5400, 2 ядра и 4 потока, 3,7 ГГц, 4 Мбайт L3, LGA1151-v2, BOX
|6 000 руб.
|
Материнская плата |AMD B350
|Примеры:
• Gigabyte GA-AB350M-DS3H V2;
• ASRock AB350M-HDV R3.0
|4 500 руб.
|Intel H310 Express
|Примеры:
• ASRock H310M-HDV;
• MSI H310M PRO-VD;
• GIGABYTE H310M H
|4 000 руб.
|
Оперативная память |8 Гбайт DDR4-2400:
• G.Skill Aegis (F4-3000C16S-8GISB)
|4 000 руб.
|
Видеокарта |AMD Radeon RX 570 8 Гбайт:
• MSI RX 570 ARMOR 8G OC
|15 000 руб.
|
Накопитель |SSD, 240-256 Гбайт, SATA 6 Гбит/с
|Примеры:
• Crucial BX500 (CT240BX500SSD1);
• ADATA Ultimate SU655 (ASU655SS-240GT-C)
|3 000 руб.
|
Процессорный кулер |DeepCool GAMMAXX 200T — для AMD
|1 000 руб.
|
Корпус |Примеры:
• ACCORD A-07B Black;
• AeroCool CS-1101
|1 500 руб.
|
Блок питания |Примеры:
• Chieftec TPS-500S 500 Вт;
• Cooler Master Elite 500 Вт;
• Thermaltake TR2 S (TRS-0500NPCWEU) 500 Вт
|3 000 руб.
|
Итого |AMD — 39 000 руб.
Intel — 36 500 руб.
Если помните, дефицит процессоров Intel начался еще в августе прошлого года. Уже тогда я был вынужден отказаться от использования Core i3-8100 в стартовой сборке и начал рекомендовать «гиперпени». И если раньше при сопоставимой цене система Intel выглядела предпочтительнее, то в августе ситуация несколько изменилась. Ну а с тех пор, как в стартовой сборке используется четырехъядерный Ryzen 3 2300X, разрыв в производительности предлагаемых систем стал еще больше — в пользу AMD.
На нашем сайте выходил подробный обзор Pentium Gold G5500, но в сборке используется самый дешевый «гиперпень» — Pentium Gold G5400. В сравнении с двухъядерниками прошлого поколения этот чип практически не изменился. У процессора все так же нет поддержки AVX-инструкций и технологии Turbo Boost. Но самая главная функция — Hyper-Threading — присутствует. Именно наличие четырех потоков делает «золотой» процессор более-менее актуальным в современных играх. Только учтите, что в таких проектах, как GTA V, Watch Dogs 2, Assassin’s Creed: Origins и тому подобные, «ядерная недостаточность» обязательно даст о себе знать. В августе прошлого месяца я написал следующие слова: «
*Поэтому при возможности все же постарайтесь вместо Pentium Gold G5500 приобрести Core i3-8100…*» Так вот, пожалуйста, не делайте так. Сейчас Core i3-8100 в боксовой комплектации стоит 11 000 рублей (в OEM — 9 000 рублей). За схожие деньги лучше взять 6-ядерный Ryzen 5 1600 с кулером. Вариант с Pentium Gold G5400 советую в первую очередь тем, кому нужен игровой ПК прямо сейчас, но у кого нет желания отваливать 14 000 рублей за Core i5-8400 и кто по каким-то причинам не хочет связываться с AMD. Такой чип позволит переждать эти сложные (для Intel) времена, а затем произвести апгрейд — возможно, даже на чип семейства Coffee Lake Refresh.
Что интересно, Intel совсем скоро представит новые чипы Pentium Gold. Например, модель G5620 будет работать на частоте 4 ГГц. Только учтите, что двухъядерник от этого не перестанет быть двухъядерником.
А еще в продаже появились материнские платы на базе чипсета B365 Express, выполненного по нормам 22-нм техпроцесса. Задача этого набора логики — закрыть брешь в сегменте недорогих материнских плат, дефицит которых, по мнению некоторых аналитиков, не позволял Intel активно продвигать свои новые процессоры девятого поколения. При этом чипсет, как и его 14-нм аналоги, остался в рамках теплового пакета 6 Вт, получил 20 линий PCI Express 3.0 и поддержку Windows 7, но был лишен USB 3.1 Gen2 и встроенного модуля Wireless AC (как у Z390 Express). С оверклокингом новый набор системной логики также не дружен. На нашем сайте вышел подробный обзор материнской платы ASRock B365M Phantom Gaming 4 на этом наборе микросхем, в котором можно познакомиться с его особенностями, плюсами и минусами.
А еще в прошлом месяце на нашем сайте вышел обзор процессоров Ryzen 3 2300X и Ryzen 5 2500X. Эти чипы были выпущены совсем недавно, и предназначены они для OEM-сборщиков компьютеров, однако в России эти модели можно приобрести отдельно, в том числе и в «Регарде». Наши тесты показывают, что в играх Ryzen 3 2300X оказывается в среднем на 20 % быстрее Ryzen 3 1300X, — мы наблюдаем отличный прирост быстродействия, не доплачивая ни копейки. Новые чипы «красных» выполнены на базе 12-нанометрового техпроцесса. К тому же в этих 4-ядерниках активирован всего один CXX-модуль. И это — огромное преимущество новинок перед четырехъядерными предшественниками с дизайном Summit Ridge. Получается, при пересылке данных или обращениях к кеш-памяти третьего уровня ядра обходятся без задействования шины Infinity Fabric, которая в существующих процессорах с микроархитектурой Zen/Zen+ нередко становится узким местом.
Отмечу, что многие производители материнских плат не внесли в список поддержки Ryzen 3 2300X и Ryzen 5 2500X. Однако наши наблюдения дают четкую картину: если плата поддерживает «камни» Pinnacle Ridge (Ryzen 3 2200G и Ryzen 5 2400G) — она поддерживает и эти OEM-процессоры AMD. На всякий случай советую обратиться в гарантийный отдел магазина, чтобы вам обновили BIOS материнской платы до последней версии.
Одним из минусов Ryzen 3 2300X считаю его реализацию исключительно в виде OEM. Все же у недорогих Ryzen-чипов в комплекте идут хорошие боксовые кулеры. В нашем же случае придется дополнительно потратиться на CPU-охладитель. Я долго выбирал модель стоимостью не больше 500 рублей, но все системы охлаждения в этой ценовой категории обладают кучей недостатков. Так что предлагаю взять DeepCool GAMMAXX 200T — эта же система рекомендуется в базовой сборке.
Как всегда, я предлагаю в стартовой сборке AMD использовать платы на базе чипсета B350. Этот набор логики позволяет не только разгонять оперативную память, но и увеличивать множитель ЦП. У всех моделей Ryzen, как известно, он разблокирован. При этом не обязательно увеличивать напряжение CPU. Конечно, можно было бы сэкономить на этом компоненте системы и вместо B350-платы взять что-нибудь на базе чипсета A320. Только такая экономия, с учетом округления, составит всего 500 рублей — и при этом изрядно снизит пределы возможностей системы.
Иногда в комментариях к «Компьютеру месяца» в качестве способа сэкономить вместо Ryzen-чипов рекомендуют использовать новые двухъядерные Athlon, а именно Athlon 200GE. Однако наше тестирование показало, что при проектировании недорогих игровых сборок с этими чипами лучше не связываться — слабоваты они для геймерских нужд.
Обычно в стартовой и базовой сборках я рекомендую использовать оперативную память Samsung. Просто модули с маркировкой Mxxxxxxxxxxxx-CRC гарантированно разгонятся до 2933-3200 МГц, а для системы AMD это очень важно. Однако в комментариях к прошлому выпуску мне посоветовали взять более дешевую оперативную память DDR4-2400 — отзывы показывают, что многие модули все равно разгонятся хотя бы до эффективной частоты 2933 МГц.
Так что теперь в стартовой сборке я рекомендую использовать более доступный модуль компании G.Skill. Модуль стоит меньше, но оснащен XMP-профилем. Практика показывает, что на большинстве материнских плат он спокойно запускается на эффективной частоте в 3000 МГц и даже разгоняется до 3200 МГц. Однако замечу, что оперативная память компании Samsung за последний месяц заметно подешевела — как и все ОЗУ в целом.
И в который раз напоминаю: если есть возможность, то берите сразу же 16-гигабайтный комплект, так как многим играм на высоких настройках качества графики требуется больше 8 Гбайт ОЗУ. Если нет такой возможности, то берите один модуль памяти объемом 8 Гбайт, но по возможности не тяните с приобретением второй платы ОЗУ с такими же характеристиками и такого же объема.
В прошлом месяце я начал использовать в стартовой сборке 8-гигабайтную версию Radeon RX 570. В феврале такую видеокарту можно было взять за 13 500 рублей. Сейчас же такие модели, как Sapphire Pulse (11266-36-20G) и MSI RX 570 ARMOR 8G OC, стоят около 15 000 рублей. С одной стороны, разницу в 1 500 рублей нельзя назвать серьезной. К тому же видеокарта — это устройство, которое заменить в компьютере оказывается накладнее всего. С другой стороны, в стартовой сборке очень часто на счету оказывается каждый рубль. Если совсем уж критично, то за 12 500 рублей можно взять модель Sapphire Pulse (11266-67-20G) с 4 Гбайт видеопамяти. Экономия составит уже 2 500 рублей.
Как обычно, я делаю акцент на том, что на стартовой сборке не всегда получится играть в современные игры в разрешении Full HD с применением высоких настроек качества графики. Иногда придется опускаться до средних. В прошлом месяце на нашем сайте вышло тестирование 32 видеокарт в Metro Exodus. Испытания показали, что Radeon RX 570 8 Гбайт обеспечивает комфортный фреймрейт (условно комфортный, с просадками не ниже 30 FPS) только при использовании средних настроек качества графики. Похоже, адаптеры калибра Radeon RX 570/580/590 и GeForce GTX 1060 в 2019 году смело можно заносить в список Low-End-видеокарт.
Кстати, GeForce GTX 1060 c 3 Гбайт стоит несколько больше — цена различных моделей меняется в диапазоне от 14 000 до 17 500 рублей. Ну а версия с 6 Гбайт памяти заметно дороже — за наипростейшую модель Inno3D Compact 2 (N1060-6DDN-N5GM) просят уже 19 000 рублей. При этом за 22 500 рублей можно взять намного более серьезную GeForce GTX 1660 Ti. Об этом мы поговорим далее.
С таким ПК ближайшие пару лет можно спокойно играть во все современные игры в разрешении Full HD на высоких и максимальных настройках качества графики.
|
Базовая сборка
|
Процессор |AMD Ryzen 5 1600X, 6 ядер и 12 потоков, 3,6 (4,0) ГГц, 8+8 Мбайт L3, AM4, OEM
|11 500 руб.
|
Материнская плата |AMD B350
|Пример:
• ASRock AB350M Pro4
|5 500 руб.
|
Оперативная память |16 Гбайт DDR4-3000:
• G.Skill Aegis F4-3000C16D-16GISB
|8 000 руб.
|
Видеокарта |NVIDIA GeForce GTX 1660 Ti 6 Гбайт
• Palit StormX
|22 500 руб.
|
Накопители |SSD, 240-256 Гбайт, SATA 6 Гбит/с
|Примеры:
• Crucial BX500 (CT240BX500SSD1);
• ADATA Ultimate SU655 (ASU655SS-240GT-C)
|3 000 руб.
|HDD по вашему желанию
|—
|
Процессорный кулер |Пример для Intel:
• Deepcool GAMMAXX 200T
|1 000 руб.
|
Корпус |Примеры:
• Cougar MX330;
• DeepCool TESSERACT;
• Thermaltake Versa N26
|3 000 руб.
|
Блок питания |Примеры:
• Be Quiet System Power 9 600 Вт
|4 500 руб.
|
Итого |59 000 руб.
На выставке CES 2019 компания Intel представила 6- и 8-ядерные чипы Coffee Lake Refresh серии F. Эти процессоры, напомню, лишены встроенной графики — так Intel решает проблему с дефицитом своей продукции. В феврале F-чипы в продаже все еще не появились, но в марте в «Регарде» отыскался Core i5-9400F, и этот «камень» стоит на 500 рублей больше Core i5-8400. Что-то мне подсказывает, что дефицит процессоров Intel в ближайшее время никуда не денется. Собственно говоря, в базовой сборке традиционно используется только платформа AMD AM4 — и так продолжается уже полгода.
В начале весны самым удачным и, по сути, безальтернативным вариантом считаю серию 6-ядерных чипов Ryzen 5. В таблице указана модель Ryzen 5 1600Х, но если вы планируете разгонять процессор, то смело можете брать самый дешевый «камень» в этой категории. Купив Ryzen 5 1600, вы сможете сэкономить 1 500 рублей — это хорошая сумма, которую можно вложить в покупку чего-нибудь другого. Кулер, который идет вместе с 6-ядерником, позволит его разогнать до 3,7-3,8 ГГц.
Естественно, в базовой сборке используется плата на базе чипсета B350. Практика показывает, что материнские платы уровня ASUS PRIME B350-PLUS и ASRock AB350 Pro4 справятся с оверклокингом Ryzen 5 до частоты 3,8-3,9 ГГц. Только не задирайте очень высоко процессорное напряжение — подсистемы питания обозначенных матплат не предназначены для слишком серьезных нагрузок.
И да, решения на B450-чипсете все еще стоят больше аналогов на базе набора логики B350. Следовательно, если вы надумали все же приобрести Ryzen 5 2600, то помните, что в магазине вам могут продать материнку со старой версией BIOS. В результате устройство попросту не определит новый чип. Обновить прошивку платы можно самостоятельно, вооружившись процессором Ryzen первого поколения, или же попросите это сделать в гарантийном отделе магазина, в котором была куплена плата.
В прошлом выпуске «Компьютера месяца» в базовой сборке использовалась видеокарта Radeon RX 570 8 Гбайт. Я не ставил в систему Radeon RX 580 и Radeon RX 590, так как они стоили намного больше, но при этом не предлагали заметно более высокого уровня быстродействия в играх. Теперь же предлагаю использовать в базовом ПК GeForce GTX 1660 Ti. Наше подробное тестирование показывает, что новинка NVIDIA по уровню производительности соответствует GeForce GTX 1070. Единственным негативным моментом у GeForce GTX 1660 Ti считается малый объем видеопамяти. Однако базовая сборка — это все еще компромиссная система, так что здесь новинка NVIDIA смотрится уместно, если учитывать один момент.
Смотрите: на момент написания статьи в «Регарде» продавалось 9 моделей GeForce GTX 1660 Ti по цене от 22 500 до 27 500 рублей. 5 000 рублей — серьезный разброс, когда наш бюджет ограничен 50-60 тысячами рублей. Считаю, что в нашем случае надо брать максимально дешевую версию GeForce GTX 1660 Ti. Помните, мы проводили сравнительное тестирование 9 различных модификаций GeForce GTX 1060? Уровень TDP процессора GP106 составляет 120 Вт. Тестирование показало, что даже простенькие кулеры вполне эффективно охлаждают такой чип, а также всю внешнюю обвязку. Уверен, хорошо будут работать и бюджетные версии GeForce GTX 1660 Ti, ведь TDP процессора TU116 тоже составляет 120 Вт.
Если же 22 500 рублей на покупку такой видеокарты для вас является неподъемной суммой, то остается только брать Radeon RX 570, Radeon RX 580 или GeForce GTX 1060, стоимость которой была официально снижена до 180 евро.
Система, которой по силам в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики, как в разрешении Full HD, так и в разрешении WQHD.
|
Оптимальная сборка
|
Процессор |AMD Ryzen 5 2600X, 6 ядер и 12 потоков, 3,6 (4,2) ГГц, 8+8 Мбайт L3, AM4, OEM
|15 000 руб.
|Intel Core i5-8400, 6 ядер, 2,8 (4,0) ГГц, 9 Мбайт L3, LGA1151-v2, OEM
|14 000 руб.
|
Материнская плата |AMD 350/450
|Примеры:
• Gigabyte B450 AORUS ELITE
|8 000 руб.
|Intel Z390 Express
|Примеры:
• ASUS PRIME Z370-P II
|9 500 руб.
|
Оперативная память |16 Гбайт DDR4-3000:
• G.Skill Aegis F4-3000C16D-16GISB
|8 000 руб.
|
Видеокарта |NVIDIA GeForce GTX 1070, 8 Гбайт GDDR5:
• Palit JetStream
AMD Radeon RX Vega 56:
• ASUS ROG-STRIX-RXVEGA56-O8G-GAMING
|27 000 руб.
|
Накопители |SSD, 240-250 Гбайт, SATA 6 Гбит/с
|Примеры:
• Samsung 860 EVO MZ-76E250;
• Intel SSD 545s
|4 500 руб.
|HDD по вашему желанию
|—
|
Процессорный кулер |Примеры:
• DeepCool GAMMAXX400
|2 000 руб.
|
Корпус |Примеры:
• Cooler Master MasterBox MB511;
• Cougar MX350
|4 500 руб.
|
Блок питания |Примеры:
• Enermax Revolution DUO (ERD700AWL-F) 700 Вт;
•Be Quiet Pure Power 11 700 Вт;
• Cooler Master MWE Gold 650 Вт
|7 000 руб.
|
Итого |AMD — 76 000 руб.
Intel — 76 500 руб.
В прошлом месяце в оптимальной сборке Intel использовался 6-ядерный чип Core i5-8500, в феврале его можно было купить за 16 000 рублей. В марте этот чип подорожал и стоит теперь 17 500 рублей с учетом округления. Что же делать? Есть три варианта. Первый — мы «откатываемся» назад и берем модель Core i5-8400 за 14 000 рублей. Экономия (для оптимальной сборки) выходит неплохая. При этом младший 6-ядерный Coffee Lake при загрузке всех «голов» работает на частоте 3,8 ГГц, а Core i5-8500 в аналогичной ситуации — на 3,9 ГГц, то есть разница не то чтобы велика. Вторым вариантом все же станет покупка Core i5-8500. Впрочем, за 17 500 рублей при наличии Core i5-8400 за 14 000 рублей (раньше разница в цене между этими процессорами составляла меньше 1 000 рублей) такой ЦП мало кому нужен.
Если вы планируете со временем вместо Core i5-8400 приобрести 8-ядерный чип Coffee Lake Refresh и впоследствии разогнать его, то рекомендую взять более качественную материнскую плату. Так, тестирование ASRock Z390 Phantom Gaming 6 показало, что не все платы стоимостью 14-20 тысяч рублей способны стабильно работать с процессорами Core i7-9700K и Core i9-9900K при очень серьезных нагрузках.
Третьим же вариантом станет покупка Ryzen 5 2600X. На мой взгляд, это оптимальное решение, но, знаете, я довольно часто сталкиваюсь с людьми, которые всю жизнь используют только железо определенных брендов.
Сейчас Ryzen 5 2600X стоит больше, чем Ryzen 7 1700. Казалось бы, надо брать чип, у которого больше ядер! И это правильное мнение, если учитывать один момент. При 12-поточной нагрузке Ryzen 5 2600X работает на частоте 3,95 ГГц — технологии Precision Boost 2 и XFR2 делают свое дело. Ryzen 7 1700 в тех же условиях работает на частоте 3,2 ГГц. Согласитесь, разница впечатляющая, а потому в большинстве программ система с 6-ядерником окажется быстрее. При этом Ryzen 5 2600X, на мой взгляд, не нуждается в оверклокинге. Например, у нас получилось разогнать этот чип всего до 4,15 ГГц. Более того, работая на такой частоте, система оказывается медленнее в играх. Технологии Precision Boost 2 и XFR2 интеллектуальны настолько, что при игровой нагрузке, которая практически никогда не может задействовать все ядра многоядерного процессора, они очень агрессивно повышают частоту и выводят старшие Pinnacle Ridge на ступень выше того предела, который достижим при ручном синхронном разгоне всех ядер сразу.
Так вот, повторюсь, вместо Ryzen 5 2600X можно и нужно использовать более доступный Ryzen 7 1700 (14 000 рублей), но только если вы разгоните его хотя бы до 3,9 ГГц — в таком режиме работы системы покажут примерно одинаковый уровень производительности в играх, но в ресурсоемких задачах чип с большим количеством ядер окажется заметно быстрее.
Самое сложное в оптимальной сборке — это определиться с видеокартой. Выбирать в марте придется среди пяти моделей: GeForce RTX 2060, GeForce GTX 1070, GeForce GTX 1660 Ti, GeForce GTX 1070 Ti и Radeon RX Vega 56. Хорошо, когда выбор есть, хоть и придется поломать над этим вопросом голову. Давайте сравним цены:
Как видите, за последний месяц серьезно подешевела Radeon RX Vega 56. Падение цен связано, конечно же, с выходом GeForce GTX 1660 Ti. Так как в продаже появилось просто огромнейшее количество GeForce GTX 1660 Ti и GeForce RTX 2060, то и их стоимость поползла вниз. GeForce GTX 1070 и GeForce GTX 1070 Ti не дешевеют, но постепенно исчезают из продажи. Полагаю, март и апрель — это последняя возможность урвать эти, безусловно, отличные видеокарты с 8 Гбайт видеопамяти за вменяемую сумму. А дальше, по всей видимости, все же придется ориентироваться на GeForce RTX 2060 или брать недорогую GeForce GTX 1660 Ti.
Постоянные читатели знают мое отношение к графическим адаптерам с 6 гигабайтами видеопамяти и меньше. Так, в предыдущих выпусках я все равно ставил в систему GeForce GTX 1070, потому что через два-три года это устройство все еще будет в строю, а вот у GeForce GTX 1660 Ti и GeForce RTX 2060 могут начаться проблемы — особенно у последней, так как трассировка лучей серьезно увеличивает потребление VRAM. Сейчас же за 27 000 рублей в «Регарде» можно приобрести отличную нереференсную модель ASUS ROG-STRIX-RXVEGA56-O8G-GAMING. Считаю, этой возможностью надо пользоваться. В обзоре GeForce GTX 1060 Ti было показано, что в разрешении Full HD Radeon RX Vega 56 в большинстве случаев оказывается быстрее этой видеокарты, а также быстрее GeForce GTX 1070. Разница в производительности между этими адаптерами небольшая, но она есть.
Запасным вариантом будем считать GeForce GTX 1070 или GeForce GTX 1070 Ti, а вариантом экономии — GeForce GTX 1660 Ti, которая используется теперь в базовой сборке.
Системы, которым по силам в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики в разрешении Full HD и WQHD.
|
Продвинутая сборка
|
Процессор |AMD Ryzen 7 1800X, 8 ядер и 16 потоков, 3,6 (4,0) ГГц, 8+8 Мбайт L3, AM4, OEM
|18 000 руб.
|Intel Core i7-8700, 6 ядер и 12 потоков, 3,2 (4,6) ГГц, 12 Мбайт L3, LGA1151-v2, OEM
|24 500 руб.
|
Материнская плата |AMD 450
|Примеры:
• ASUS ROG STRIX B450-F GAMING
|10 000 руб.
|Intel Z390 Express
|Примеры:
• ASUS TUF Z390-PLUS GAMING;
• Gigabyte Z390 GAMING SLI
|12 500 руб.
|
Оперативная память |16 Гбайт DDR4-3000:
• G.Skill Aegis F4-3000C16D-16GISB
|8 000 руб.
|
Видеокарта | NVIDIA GeForce RTX 2070, 8 Гбайт GDDR6:
• MSI RTX 2070 VENTUS 8G
|38 500 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 480-512 Гбайт, SATA 6 Гбит/с
|Примеры:
• Samsung 860 EVO MZ-76E250;
• Intel SSD 545s
|7 000 руб.
|
Процессорный кулер |Примеры:
• DeepCool GAMMAXX400
|2 000 руб.
|
Корпус |Примеры:
• NZXT S340 Black/Blue;
• Cooler Master MasterBox 5;
• DeepCool EARLKASE RGB V2
|5 000 руб.
|
Блок питания |Примеры:
• Enermax Revolution DUO (ERD700AWL-F) 700 Вт;
•Be Quiet Pure Power 11 700 Вт;
• Cooler Master MWE Gold 650 Вт
|7 000 руб.
|
Итого |AMD — 95 500 руб.
Intel — 104 500 руб.
В продвинутой сборке AMD по-прежнему используется Ryzen 7 1800X. На первый взгляд, логичнее (и современнее, что ли) использовать Ryzen 7 2700, вот только этот чип, как показывают наши тесты, оказывается и медленнее, и дороже в среднем на 1 000 рублей. Как всегда, выбор остается за вами, но в такой ситуации гнаться за более современным устройством, на мой взгляд, смысла нет.
Впрочем, в случае с платформой AMD можно вообще не заморачиваться и за 24 000 рублей приобрести Ryzen 7 2700X — бесспорный флагман платформы AM4. А можно запихнуть в сборку и Ryzen 7 1700 — при условии, что этот чип будет впоследствии разогнан хотя бы до 3,8-3,9 ГГц. Все-таки хорошо, когда разгон оказывается рычагом, увеличивающим вариативность при составлении системы.
Что касается сборки Intel, то здесь ситуация не так проста. По факту повторяется сценарий декабря прошлого года. Шестиядерный Core i5-9600K стоит 21 000 рублей. На стороне этого чипа выступают наличие пусть и не такого хорошего, но припоя под крышкой, а также возможность разгона. За 24 500 рублей можно взять 12-поточный Core i7-8700 — за последний месяц этот процессор подорожал на 1 500 рублей, что лично меня не очень-то устраивает. В случае выбора последнего придется забыть о каком-либо разгоне, но я в этом не вижу трагедии, так как 6-ядерник работает на частоте 4,3 ГГц при загрузке всех ядер.
И все же я опять ставлю в сборку Core i7, хоть и приходится «раздувать» стоимость продвинутой системы Intel. Если не согласны со мной, то смело можете сэкономить. Производительность компьютера с Core i5-9600K в играх оказывается ниже, но не сильно — вы можете убедиться в этом, прочитав наш подробный обзор. К тому же в системе используется GeForce RTX 2070 — далеко не самая процессорозависимая видеокарта. Однако давайте в сборках «Компьютера месяца» чуточку думать и о перспективе. Очевидно, Core i7-8700 в этом плане смотрится интереснее.
Кстати, среди всех новинок NVIDIA только GeForce RTX 2070 вызывает у меня меньше всего вопросов. Мы уже не раз обсуждали GeForce RTX 2060, которая пусть и опережает GeForce GTX 1070 Ti, но при схожей стоимости обладает меньшим объемом видеопамяти. Аналогичная ситуация наблюдается и в противостоянии GeForce RTX 2080 с GeForce GTX 1080 Ti. Наконец, GeForce RTX 2080 Ti предлагает пользователю невиданный до этого уровень производительности в играх, но лишь немногие готовы потратить на одну только видеокарту 100 000 рублей.
А вот GeForce RTX 2070 оказывается по-настоящему универсальной видеокартой. Схожая по стоимости с GeForce GTX 1080, она работает быстрее и обладает таким же объемом графической памяти — 8 Гбайт. При этом все желающие теперь могут попробовать на вкус трассировку лучей. Очевидно, если эта технология, что называется, взлетит, то обладатели ускорителей серии RTX окажутся в дамках. Впрочем, говорить об успехе таких технологий, как трассировка лучей и DLSS-сглаживание, пока рано. Среди серьезных проектов к Battlefield V пока примкнули только Metro Exodus и Final Fantasy XV. О том, как в них работает DLSS, вы можете прочитать в отдельном материале.
Конкурента (с большой натяжкой) GeForce RTX 2070 — Radeon Vega 64 — отыскать в магазинах оказывается не так просто. В том же «Регарде» на момент написания статьи значилась всего одна модель по цене в 38 000 рублей.
Обратите внимание, что в продвинутой сборке изменился накопитель. Раньше я рекомендовал модель ADATA XPG SX8200 — SSD с интерфейсом PCI Express x4 3.0, весьма производительное решение в своем классе. Однако за эти же деньги мы можем взять SATA-накопитель большего объема. С учетом того, что в сборках уже давно отсутствуют жесткие диски, я решил поступить в этот раз именно таким образом. В более дорогих сборках без NVMe-накопителей, полагаю, уже не обойтись.
Такие системы способны в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики как в разрешении Full HD, так и в WQHD. В 4K-разрешении GeForce RTX 2080 тянет ААА-проекты на высоких настройках качества графики.
|
Максимальная сборка
|
Процессор |AMD Ryzen 7 2700X, 8 ядер и 16 потоков, 3,7 (4,3) ГГц, 8+8 Мбайт L3, AM4, OEM
|24 000 руб.
|Intel Core i7-8700K, 6 ядер и 12 потоков, 3,7 (4,7) ГГц, 12 Мбайт L3, LGA1151-v2, OEM
|27 000 руб.
|
Материнская плата |AMD X470
|Примеры:
• ASUS PRIME X470-PRO;
• Gigabyte X470 AORUS Gaming 5 WiFi
|14 000 руб.
|Intel Z390 Express
|Примеры:
• MSI MPG Z390 GAMING EDGE AC
|16 000 руб.
|
Оперативная память |32 Гбайт DDR4-3000:
• G.Skill Aegis (F4-3000C16D-32GISB)
|15 500 руб.
|
Видеокарта |NVIDIA GeForce RTX 2080 8 Гбайт GDDR6:
• Palit JetStream
|54 000 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 480-512 Гбайт, PCI Express x4 3.0
|Пример:
• Samsung 970 EVO Plus Series (MZ-V7S500BW)
|11 000 руб.
|
Процессорный кулер |Примеры:
• GELID Phantom Black
|4 500 руб.
|
Корпус |Примеры:
• NZXT S340 Black/Blue;
• Cooler Master MasterBox 5;
• DeepCool EARLKASE RGB V2
|5 000 руб.
|
Блок питания |Примеры:
• Enermax Revolution DUO (ERD700AWL-F) 700 Вт;
• Be Quiet Pure Power 11 700 Вт;
• Cooler Master MWE Gold 650 Вт
|7 000 руб.
|
Итого |AMD — 135 000 руб.
Intel — 140 000 руб.
Помните, что на выставке CES 2019 сказал руководитель NVIDIA Дженсен Хуанг о видеокарте AMD Radeon VII? Я напомню: «
*Паршивая производительность, и ничего нового. Нет трассировки лучей, нет ИИ. Этот 7-нм ускоритель с памятью HBM едва справляется с GeForce RTX 2080. А при использовании DLSS мы сокрушим его. И при использовании трассировки лучей мы раздавим его*». Наш подробный тест показывает, что Radeon VII успешно соперничает с GeForce RTX 2080 и GeForce GTX 1080 Ti. Однако NVIDIA не придется «давить» конкурента — в AMD это сделали сами. В максимальной сборке Radeon VII не присутствует по одной причине: ее очень тяжело купить даже в московской рознице. На момент написания статьи я за 60 000 рублей нашел модель PowerColor в магазине «Ситилинк» — и все. Различных же версий GeForce RTX 2080, наоборот, находится очень много во всех магазинах. И стоят они, как правило, меньше. Как видите, ни о какой конкуренции (пока) даже речи не идет.
При этом у Radeon VII, пожалуй, есть всего один козырь в рукаве — это наличие вдвое большего объема видеопамяти, целых 16 Гбайт. Небольшой анонс: вовсю идет подготовка к написанию статьи «
*Сколько видеопамяти необходимо современным играм*», в которой мы подробно раскроем эту тему.
В рамках максимальной сборки определиться с комплектующими для «красной» конфигурации проще простого. Потому что есть Ryzen 7 2700X, который стоит 24 000 рублей. Чип, как и Ryzen 5 2600X, в разгоне не нуждается, так как в играх работает на частоте 4,1-4,3 ГГц. А вот в максимальную сборку Intel все никак не вернется Core i7-9700K. В прошлом месяце я использовал чип Core i7-8700K, так как 8-ядерный Coffee Lake Refresh почему-то заметно подорожал в феврале. В марте наблюдается та же тенденция, Core i7-9700K стоит на 5 000 рублей больше.
Сразу же оговорюсь: если вы не планируете разгонять Core i7-8700K, то и вовсе берите Core i7-8700 — дополнительно сэкономите 2 500 рублей.
Если же вы все-таки решите взять Core i7-9700K, то это тоже будет отличным выбором. Как мы знаем, 8-ядерник работает на более высокой частоте — этот параметр особенно порадует ту часть читателей, которая не собирается ничего разгонять. А таких пользователей большинство, поверьте. К тому же на один удачно разгоняемый чип Coffee Lake Refresh в продаже встречается сразу несколько неудачных. Следовательно, покупка Core i5-9600K, Core i7-9700K и Core i9-9900K в любом случае окажется лотереей. Лично я считаю, что особого смысла разгонять такие процессоры уже нет — они и так работают на очень высоких частотах. При активации функции Multi-Core Enhancements тот же Core i7-9700K при загрузке всех шести ядер держит 4,6 ГГц. Естественно, чип необходимо снабдить эффективной системой охлаждения, а потому без суперкулера или необслуживаемой СЖО не обойтись.
В случае с 8-ядерными чипами Intel (да и AMD тоже) ни в коем случае нельзя экономить на материнской плате. Даже без разгона эти процессоры серьезно нагружают конвертер питания, перегрев которого приводит к снижению частоты или к нестабильной работе. Мы регулярно поднимаем эту тему в статьях. Про то, как работают конвертеры питания материнских плат различного уровня вы можете узнать, прочитав статьи «Обзор 5 бюджетных материнских плат на Intel H310 Express: есть ли смысл экономить?», «Можно ли сэкономить на матплате при покупке 8-ядерного процессора Intel? Выясняем на примере GIGABYTE Z390 AORUS PRO» и «Какое охлаждение выбрать при использовании 8-ядерных процессоров Intel. Выясняем на примере ASRock Z390 Phantom Gaming 6», но в комментариях постоянно отмечаются знатоки, которые искренне верят в то, что все платы одинаковые и что дешевые модели от дорогих отличаются только наличием, например, более красочной подсветки. К счастью или к сожалению, это не так. В таблице указаны модели материнских плат, в стабильной работе которых с 8-ядерными Coffee Lake Refresh я уверен.
А помните, на нашем сайте в конце прошлого года вышел сравнительный обзор нескольких моделей GeForce GTX 1080 Ti? Причем вышел тогда, когда в продаже появилась GeForce RTX 2080. Уж больно спорная новинка получилась у NVIDIA. По уровню производительности она оказывается ничуть не лучше GeForce GTX 1080 Ti, но при этом оснащена меньшим объемом видеопамяти. Что ж, как я и говорил, теперь достать бывший GeForce-флагман довольно тяжело. В том же «Регарде» осталось всего 6 моделей по каким-то невменяемым ценам. По сути, с учетом всего вышесказанного, у нас попросту нет выбора — покупаем GeForce RTX 2080 или же ищем достойную альтернативу на вторичном рынке. Только в «Компьютере месяца» речь идет всегда о новом железе, которое можно купить в России.
Система актуальна для современных игр в разрешении Ultra HD с использованием максимальных настроек качества графики.
|
Экстремальная сборка
|
Процессор |Intel Core i9-9900K, 8 ядер и 16 потоков, 3,6 (5,0), 16 Мбайт L3, OEM
|42 000 руб.
|
Материнская плата |Intel Z390
|Примеры:
• MSI MEG Z390 ACE;
• ASRock Z390 Taichi Ultimate
|24 000 руб.
|
Оперативная память |32 Гбайт DDR4-3200:
• G.Skill Trident Z F4-3200C14D-32GTZ
|31 500 руб.
|
Видеокарта |NVIDIA GeForce RTX 2080 Ti, 11 Гбайт GDDR6
|92 000 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 1 Тбайт, PCI Express x4 3.0
|Пример:
• Samsung 970 PRO MZ-V7P1T0BW
|28 000 руб.
|
Процессорный кулер |Примеры:
• NZXT Kraken X62
|12 000 руб.
|
Корпус | Пример:
• Be Quiet Silent Base 801 Window Black
|12 000 руб.
|
Блок питания | Примеры:
• SeaSonic SSR-1000FX FOCUS Plus Gold 1000 Вт;
• Enermax Platimax D.F. (EPF1050EWT) 1050 Вт
|15 000 руб.
|
Итого |256 500 руб.
Экстремальная сборка «Компьютера месяца» — это самая дорогая, но и самая стабильная конфигурация в рубрике. Я довольно часто отмечаю тот факт, что при наличии огромного количества денег нет особого смысла ограничивать себя — приобретайте то, что хотите. В качестве примера традиционно указывается система на базе платформы LGA1151-v2, оснащенная 8-ядерным процессором Core i9-9900K и GeForce RTX 2080 Ti. Напомню, в прошлом году мы детальнейшим образом изучили эту сборку. Ниже я коротко повторю основные моменты, которыми мы руководствуемся при составлении такой системы.
Экстремальная сборка появилась в августе 2017 года. Больше года назад зажиточные геймеры могли потратить свыше четверти миллиона рублей на 8-ядерный процессор Core i7-7820X, пару GeForce GTX 1080 Ti и прочие сопутствующие комплектующие. Затем в рамках экстремальной сборки появились процессоры AMD Ryzen Threadripper. В каждом выпуске «Компьютера месяца» я постоянно обращал внимание читателей на тот момент, что от процессора, относящегося к категории HEDT, в игровом ПК мало толку. При идентичной конфигурации система, скажем, с Core i7-8700K покажет результаты не хуже, а в большинстве случаев даже лучше. Поэтому экстремальную сборку в 2017 и 2018 году я рекомендовал тем, кто не только развлекается, но и работает за компьютером. Сейчас же, и наши тесты это наглядно показывают, система стала заметно быстрее в играх — во многом за счет использования видеокарты GeForce RTX 2080 Ti.
Экстремальная сборка последние несколько месяцев составлена только из комплектующих Intel и NVIDIA. Выбор процессора, на мой взгляд, оказался наиболее очевидным. Core i9-9900K (ссылка на обзор) — это самый производительный чип, который можно использовать в массовых платформах (по классификации «Компьютера месяца» к ним относятся AMD AM4 и Intel LGA1151-v2). При загрузке всех восьми ядер этот чип работает на частоте 4,7 ГГц. Даже без учета заметного увеличения числа потоков, как видите, мы получаем неплохую прибавку в 400 МГц, если сравнивать Core i9-9900K с бывшим LGA1151-флагманом — Core i7-8700K. Полностью согласен с мнением моего коллеги Ильи Гавриченкова: 16-поточный Coffee Lake Refresh подойдет в том числе и для профессиональной работы.
Альтернативных вариантов у Core i9-9900K предостаточно. Это могут быть 8-ядерные процессоры Core i7-9700K и Ryzen 7 2700X, а также 6-ядерный Core i7-8700K. Первые два чипа рекомендуются в «Компьютере месяца» в рамках максимальной сборки, но в то же время никто не мешает вам использовать вместе с ними видеокарту уровня GeForce RTX 2080 Ti. На момент написания статьи OEM-версия Core i9-9900K стоила довольно много — 42 000 рублей. Естественно, покупка того же Core i7-9700K позволит нам прилично сэкономить.
Другие модели центральных процессоров, если так можно выразиться, выступают в более тяжеловесной категории. Конечно же, речь идет про HEDT-платформы AMD TR4 и Intel LGA2066. Если рассмотреть первую платформу, то за 32 500 рублей можно взять 12-ядерный Ryzen Threadripper 1920, а за 54 000 рублей — 16-ядерный Ryzen Threadripper 1950X. Если рассмотреть платформу LGA2066, то за 52 500 рублей можно приобрести 8-ядерный Core i7-9800X. 10-ядерная модель Core i9-9820X стоит уже 70 500 рублей.
Оба чипмейкера позиционируют свою продукцию (HEDT-платформы) как решение для геймеров, поэтому стоимость экстремальной сборки можно запросто увеличить вдвое. Однако я еще раз повторюсь: рассматривать варианты с LGA2066 и TR4 есть смысл, если вам необходим системный блок не только для игр, но и для выполнения серьезных вычислительных задач.
Достичь столь высоких частот процессорам Core i9-9900K и Core i7-9700K даже без применения разгона помогает наличие припоя под теплораспределительной крышкой. Intel вновь вернулась к этому интерфейсу спустя почти восемь лет! Правда, припой в новых Coffee Lake довольно часто критикуют, так как далеко не каждый 8-ядерник Intel для платформы LGA1151-v2 удается разогнать хотя бы до 4,9 ГГц. Довольно подробный эксперимент эту тему, в котором приняло участие сразу пять серийных (не инженерных) образцов Core i7-9700K, вышел на нашем сайте. Любое тестирование Coffee Lake Refresh приводит к одному выводу: планируете вы разгонять чип или нет, но для его эффективной и стабильной работы необходимо использовать в системе по-настоящему качественное охлаждение. Это может быть суперкулер или же необслуживаемая СЖО с двух- или даже трехсекционным радиатором — здесь все зависит от ваших предпочтений и возможностей. Я же обычно указываю в сборке трехсекционную необслуживаемую «водянку».
Вторая серьезная проблема, с которой вы можете столкнуться при использовании 8-ядерных процессоров Coffee Lake Refresh, — это возросшая нагрузка на подсистему питания материнской платы. Так что прикупить Core i9-9900K с GeForce RTX 2080 Ti и заметно сэкономить на этом компоненте ПК не получится. Читателям 3DNews такой вариант сбережения денежных средств я точно рекомендовать не стану, хотя в комментариях всерьез предлагают в экстремальную сборку ставить платы за 8-10 тысяч рублей.
Дело в том, что при стабильной работе Core i9-9900K на частоте 4,7 ГГц энергопотребление системного блока в программе LinX поднимается до 200-220 Вт. В разгоне до 4,9-5,0 ГГц этот параметр легко увеличивается до 300-320 Вт. В такие моменты конвертер питания любой материнской платы испытывает серьезные нагрузки. Перегрев элементов VRM-цепи может привести к троттлингу центрального процессора или выходу устройства из строя.
Используется ли в вашей системе Core i7-9700K или Core i9-9900K — в обоих случаях главным критерием при выборе материнской платы считается наличие хорошей подсистемы питания. Функциональность устройства, а также присутствие дополнительных фишек — вещи второстепенные. Классные платы есть как на базе чипсета Z370 Express, так и на основе набора логики Z390 Express. Брать в экстремальную сборку решения на младших чипах нет никакого смысла, иначе мы не сможем использовать быструю оперативную память, а также разогнать центральный процессор, если в этом появится необходимость.
Экстремальная сборка — это такая система, в которую мы смело можем взять вообще любую плату из категории High-end. Все-таки не каждый день собираются такие ПК.
С выбором оперативной памяти все очень просто. В царь-ПК должно быть установлено минимум 32 Гбайт оперативной памяти с дальнейшей возможностью увеличить объем DDR4 вдвое. Наши испытания показывают, что современным играм даже в разрешении Ultra HD все еще достаточно 16 Гбайт ОЗУ — и на этом элементе в системе вполне можно сэкономить. В моем понимании установка 32 Гбайт позволит закрыть тему с нехваткой оперативной памяти до момента устаревания всей системы целиком.
Уже довольно давно в рамках экстремальной сборки используется твердотельный накопитель Samsung 970 PRO MZ-V7P1T0BW объемом 1 Тбайт. Как мне кажется, такого SSD вполне достаточно, чтобы установить на него и операционную систему, и несколько любимых игр.
Уровень производительности серии 970 PRO сомнению не подлежит. В нашем подробнейшем обзоре мы выяснили, что это самый быстрый SSD, построенный на базе NAND-памяти. Тесты показывают, что 970 PRO оказывается на 25-30 % быстрее накопителя 970 EVO, который мы ранее рекомендовали использовать в менее дорогих сборках.
Пожалуй, реальной альтернативой Samsung 970 PRO MZ-V7P1T0BW можно считать только Intel Optane SSD 900P/905P, но вариант Samsung оказывается в разы дешевле. К тому же преимущество накопителя на базе 3D XPoint в реальных сценариях решающим назвать тяжело. Еще в продаже вы можете встретить Samsung 983 ZET — удивительный SSD на базе NAND-памяти с производительностью как у Optane. Только его цена оказывается на пугающе высоком уровне даже на фоне моделей Intel Optane SSD 900P/905P.
В общем, с SSD в рамках экстремальной сборки определиться очень даже просто. Что касается жесткого диска, то тут, уважаемые читатели, действуйте, исходя из своих предпочтений.
С видеокартой, используемой в системе, тоже все ясно: GeForce RTX 2080 Ti обеспечивает отличный уровень производительности в разрешении Ultra HD даже с применением максимальных настроек качества графики и сглаживания. Графические адаптеры калибра GeForce GTX 1080 Ti и GeForce RTX 2080 так не могут.
Ниже представлен список полезных статей, которые помогут вам в выборе тех или иных комплектующих, а также при самостоятельной сборке ПК: |
983,811 | Gamesblender № 402: три игры по «Дюне», страх и сложность в GTFO и скорый показ Borderlands 3 | С вами GamesBlender, еженедельный видеодайджест новостей игровой индустрии от 3DNews.ru. В сегодняшнем выпуске: Xbox просачивается в «десятку»; целились в Steam, а попали в GOG; последний джедай покажется в апреле. А также другие новости и события игровой индустрии |
983,846 | Обзор и тестирование видеокарты Palit GeForce RTX 2060 GamingPro OC | В момент анонса GeForce RTX 2060 Founders Edition перспективы новой модели видеокарты NVIDIA, основанной на графическом процессоре архитектуры Turing, многие оценивали довольно скептически. Основной причиной тому была даже не столько производительность видеокарты в редких играх с поддержкой Ray Tracing или DLSS, которую было сложно назвать убедительной, сколько заметно возросшая в сравнении с аналогичным показателем GeForce GTX 1060 рекомендованная стоимость (32 против 23 тысяч рублей за FE-версию).
Однако рынок среагировал довольно быстро, и уже сегодня самые простые версии GeForce RTX 2060 можно приобрести по цене от 22 тысяч рублей, а по-настоящему интересные варианты начинаются с 24 тысяч. Одновременно с этим и сама NVIDIA смогла выпустить несколько версий новых драйверов GeForce, которыми удалось повысить производительность в только что вышедших хитах, таких, например, как Metro Exodus. Теперь на новые GeForce RTX 2060 мало кто смотрит как на переоценённых «гадких утят», а ассортимент различных моделей на базе этой видеокарты стремительно расширяется.
Компания Palit, традиционно одной из первых анонсирующая новинки на свежих чипах, представила сразу четыре модели на младшем Turing, самую быструю из которых мы сегодня изучим и протестируем. Называется она Palit GeForce RTX 2060 GamingPro OC.
⇡#Технические характеристики и рекомендованная стоимость
Технические характеристики и стоимость видеокарты Palit GeForce RTX 2060 GamingPro OC приведены в таблице в сравнении с показателями эталонных версий NVIDIA GeForce RTX 2070 FE, GeForce RTX 2060 FE и GeForce GTX 1060.
|
Наименование технических характеристик |
NVIDIA GeForce RTX 2070 FE |
Palit GeForce RTX 2060 GamingPro OC |
NVIDIA GeForce RTX 2060 FE |
NVIDIA GeForce GTX 1060
|
Графический процессор |TU106-A1
«Turing»
(TSMC)
|TU106-A1
«Turing»
(TSMC)
|TU106-A1
«Turing»
(TSMC)
|GP106-A1
«Pascal»
(TSMC)
|
Техпроцесс, нм |12 FinFET
|12 FinFET
|12 FinFET
|16
|
Площадь кристалла, мм 2 |445
|445
|445
|200
|
Число транзисторов, млрд |10,8
|10,8
|10,8
|4,4
|
Частота графического процессора, МГц |
3D |1410
(1710 – boost)
|1365
(
1 8 30 – boost) |1365
(1680 – boost)
|1506
(1708 – boost)
|
2D |300
|139
|139
|139
|
Число унифицированных шейдерных процессоров, шт. |2304
|1920
|1920
|1280
|
Число текстурных блоков, шт. |144
|120
|120
|80
|
Число блоков растровых операций (ROPs), шт. |64
|48
|48
|48
|
Скорость трассировки лучей, GRay/s |6
|5
|5
|н/д
|
Теоретическая максимальная скорость закраски, Гпикс. /с |109,0
|80,6
|80,6
|72,3
|
Теоретическая максимальная скорость выборки текстур, Гтекс. /с |246,0
|201,6
|201,6
|159,6
|
Тип поддерживаемой памяти |GDDR6
|GDDR6
|GDDR6
|GDDR5
|
Разрядность шины обмена с памятью, бит |256
|192
|192
|192
|
Эффективная частота работы видеопамяти, ГГц |
3D |14
|14
|14
|8
|
2D |0,81
|0,81
|0,81
|0,81
|
Объём памяти, Гбайт |8
|6
|6
|6
|
Полоса пропускания видеопамяти, Гбайт/с |448,0
|336,0
|336,0
|192,2
|
Пиковая потребляемая мощность в 3D-режиме работы, Вт |
3D |175/185
|
190 |160
|120
|
2D |н/д
|20
|20
|н/д
|
Требования к мощности блока питания, Вт |550
|500
|500
|400
|
Размеры видеокарты (Д × В × Т), мм |230 × 103 × 38
|236 × 106 × 38
|230 × 103 × 38
|251 × 110 × 37
|
Вес, г |н/д
|652
|966
|н/д
|
Интерфейс |PCI-Express x16 (v3.0)
|PCI-Express x16 (v3.0)
|PCI-Express x16 (v3.0)
|PCI-Express x16 (v3.0)
|
Выходы |1 HDMI v2.0b,
3 DisplayPort v1.4a, USB-C (VirtualLink)
|1 DVI-D,
1 HDMI v2.0b,
1 DisplayPort v1.4a |1 DVI-D,
1 HDMI v2.0b,
2 DisplayPort v1.4a, USB-C (VirtualLink)
|1 DVI-D,
1 HDMI v2.0b,
3 DisplayPort v1.4
|
Дата релиза |17.10.2018
|15.01.2019
|15.01.2019
|08.07.2016
|
Рекомендованная стоимость в момент анонса, долларов США |
599 |
н/д |
349 |
249/299
|
Минимальная розничная стоимость на дату публикации статьи, руб. |
49 990 |
24 500 |
31 990 |
19 8 00
Palit GeForce RTX 2060 GamingPro OC поставляется в компактной картонной коробке, на лицевой стороне которой указаны название компании-производителя, серии и модели видеокарты, а также объём видеопамяти.
На обратной стороне перечислены поддерживаемые технологии NVIDIA и минимальные системные требования. Внутрь цветной коробки вставлена ещё одна, только из обычного чёрного картона, а уже в ней и размещена видеокарта.
В комплекте с Palit GeForce RTX 2060 GamingPro OC можно найти только краткую инструкцию по установке и диск с драйверами и утилитами.
Больше ничего нет, что, впрочем, не удивительно, поскольку у нас на тестах продукт среднего класса, а сейчас даже флагманские видеокарты редко комплектуются бонусами.
Добавим, что видеокарта выпускается в Китае и что на неё предоставляется трёхлетняя гарантия. Информации о рекомендованной стоимости у нас нет, но в российских магазинах Palit GeForce RTX 2060 GamingPro OC можно приобрести за 24,5 тысячи рублей.
⇡#Дизайн и особенности печатной платы
По дизайну Palit GeForce RTX 2060 GamingPro OC — сравнительно простая видеокарта, но разработчики всё же попытались сделать её интереснее внешне, наделив рифлёным пластиковым кожухом с глянцевой вставкой в центре. С эстетической точки зрения получилось, на наш взгляд, не очень удачно.
При взгляде на видеокарту с обратной стороны становится очевидно, что печатная плата короче системы охлаждения на 40 мм. С боков кожух закрывает радиатор менее чем на 50 %. С торца, который, скорее всего, будет смотреть в прозрачную стенку корпуса системного блока, встроена аккуратная светодиодная подсветка.
Внутренние размеры видеокарты составляют 236 × 106 × 38 мм, а весит она 652 грамма.
Восьмиконтактный разъём питания сориентирован вверх, защёлкой наружу.
Максимальный уровень энергопотребления Palit GeForce RTX 2060 GamingPro OC, заявленный в спецификациях, составляет 190 ватт, что на 30 ватт больше, чем у эталонной версии NVIDIA данной модели. В 2D-режиме её энергопотребление снижается до 20 ватт. Рекомендованный блок питания для системы с такой видеокартой должен быть мощностью не менее 500 ватт.
Отметим, что в плане выходов версия Palit заметно упрощена. В сравнении с NVIDIA GeForce RTX 2060 Founders Edition видеокарту лишили одного видеовыхода DisplayPort и порта USB-C (VirtualLink).
Странное решение, тем более что при такой системе охлаждения максимально разрежать панель с видеовыходами не было необходимости.
Посмотрим на печатную плату видеокарты без системы охлаждения.
Система питания во многом повторяет эталонный вариант и состоит из сборок DrMOS в восьми фазах, из которых шесть отведены на обеспечение питания графического процессора, а две – на видеопамять и силовые цепи.
Управление питанием графического процессора обеспечивает контроллер uP9512 производства uPI Semiconductor, распаянный на обратной стороне текстолита.
Мониторинг и управление вентиляторами обеспечивает контроллер Holtek HT32F52241.
Как вы уже знаете, GeForce RTX 2060 базируется на графическом процессоре TU106-A1 архитектуры Turing, который по площади и количеству транзисторов идентичен кристаллу RTX 2070 (12-нм FinFET, 445 мм
2 и 10,8 млрд транзисторов). В нашем случае использован чип TU106-200A-KA-A1, выпущенный на 43-й неделе 2018 года (конец октября). По периметру его подложки установлена пластиковая рамка, защищающая кристалл от сколов при установке или снятии системы охлаждения. Отметим, что её устанавливают далеко не все производители, а штука на самом деле полезная.
Напомним, что GPU имеет 1920 шейдерных процессоров против 2304 у RTX 2070 (на 16,7 % меньше), 120 текстурных блоков против 144 и только 48 блоков ROPs против 60. Базовая частота графического процессора Palit GeForce RTX 2060 GamingPro OC в 3D-режиме равна эталонной и составляет 1365 МГц. Фирменный разгон ядра видеокарты заключается в том, что в форсированном режиме частота GPU увеличивается не до штатных 1680 МГц, а разом до 1830 МГц, что на 9 % выше. Более того, по данным мониторинга, графический процессор достигал и 1980 МГц, а стабильно удерживал частоту порядка 1920 МГц.
А вот память у видеокарты в полной мере соответствует эталонным значениям. Все шесть гигабайт GDDR6 на 192-битной шине работают на эффективной частоте 14 ГГц, обеспечивая теоретическую пропускную способность 336,0 Гбайт/с. Объём памяти набран шестью микросхемами производства Micron с маркировкой 8WA77 D9WCW.
Жаль, что в Palit не стали разгонять память, тем более что GDDR6 имеет отменный оверклокерский потенциал, и те же, например, 15 ГГц для неё не стали бы какой-то проблемой, а даже с маркетинговой точки зрения эффект обязательно был бы.
Характеристики Palit GeForce RTX 2060 GamingPro OC приведём с помощью утилиты GPU-Z.
Публикуем мы и BIOS видеокарты, который вы можете скачать по ссылке.
Система охлаждения Palit GeForce RTX 2060 GamingPro OC представляет собой алюминиевый радиатор с тепловыми трубками, медным основанием и крупной алюминиевой пластиной-теплораспределителем, а также два вентилятора в пластиковом кожухе.
Радиатор состоит из большого числа тонких алюминиевых рёбер, которые пронизаны четырьмя шестимиллиметровыми тепловыми трубками, выходящими попарно в разные стороны.
Основание медное и хорошо обработанное, а вот термопасты на нём с избытком, что наверняка не лучшим образом сказывается на эффективности теплообмена.
В закрепляемом на радиаторе винтами пластиковом кожухе установлены два девятилопастных вентилятора.
Диаметр каждой такой крыльчатки равен 86 мм, а их оригинальным производителем является компания FirstDo (модель вентилятора FDC10H12S9-C).
Скорость вращения крыльчаток регулируется видеокартой автоматически при помощи ШИМ в диапазоне от 1010 до 3530 об/мин.
Для проверки температурного режима работы видеокарты в качестве нагрузки мы использовали двадцать циклов стресс-теста Fire Strike Extreme из графического пакета 3DMark.
Для мониторинга температур и всех прочих параметров применялась программа MSI Afterburner версии 4.6.0 beta 12 и утилита GPU-Z версии 2.16.0 и новее. Тесты проводились в закрытом корпусе системного блока, конфигурацию которого вы сможете увидеть в следующем разделе статьи, при температуре в помещении около
**25** градусов Цельсия.
Как и всегда, первый тест эффективности системы охлаждения Palit GeForce RTX 2060 GamingPro OC мы провели при автоматической регулировке скорости вращения вентиляторов.
С охлаждением разогнанной на заводе видеокарты её кулер справляется довольно успешно, не позволяя температуре графического процессора подняться выше 73 градусов Цельсия. Это примерно на 6 градусов Цельсия лучше, чем выдает эталонный кулер NVIDIA GeForce RTX 2060 Founders Edition, протестированной в идентичных условиях. При этом мы не можем не заметить, что скорость вентиляторов увеличилась до 2360 об/мин и, по субъективной оценке, видеокарта уже не была комфортной по уровню шума.
Впрочем, при максимальных оборотах двух вентиляторов Palit GeForce RTX 2060 GamingPro OC шумит ещё сильнее, но и охлаждает видеокарту на 10 градусов Цельсия эффективнее.
Отметим, что при более эффективном охлаждении графического процессора видеокарты его частота держалась на 15 МГц выше, чем в автоматическом режиме работы кулера.
Сначала оверклокерский потенциал Palit GeForce RTX 2060 GamingPro OC мы попытались изучить с помощью автоматического сканера частоты GPU из MSI Afterburner. После сканирования с тестированием утилита отрапортовала о возможном повышении частоты графического процессора на 87 МГц.
Наша проверка также показала, что на такой частоте GPU видеокарта стабильна, но мы решили попробовать ручной разгон, и, как оказалось, не зря, поскольку в итоге частоту графического процессора смогли увеличить на 100 МГц (+7,3 %), а частоту видеопамяти аж на 2500 (!) МГц (+17,9 %).
В результате частоты разогнанной видеокарты составили
**1465-1930/16504** МГц.
Пиковая частота GPU разогнанной видеокарты достигала отметки 2100 МГц, а в процессе тестирования стабилизировалась на 2025 МГц. Что касается её температурного режима, то его мы приведём на снимке ниже.
Не удивляйтесь снижению температуры GPU после разгона по сравнению с показателями в номинальном режиме работы, никакого заговора или ошибки здесь нет. Просто тесты на разгон мы проводили после смены штатного термоинтерфейса на ARCTIC MX-4, что позволило отыграть более 5 градусов Цельсия. Причём мы не готовы утверждать, что в Palit используют недостаточно эффективную термопасту, — просто её накладывают на кристалл процессора (или основание кулера) в разы больше необходимого.
⇡#
**Тестовая конфигурация, инструментарий и методика тестирования**
Тестирование видеокарт было проведено в закрытом корпусе системного блока на следующей аппаратной конфигурации:
Для снижения зависимости производительности видеокарт от скорости платформы 14-нм десятиядерный процессор при множителе
**44**, опорной частоте 100 МГц и активированной на пятый уровень функции Load-Line Calibration был разогнан до **4,4 ГГц** при повышении напряжения в BIOS материнской платы до 1,114 В.
16 гигабайт оперативной памяти типа DDR4 функционировали в четырёхканальном режиме на частоте
**2,933 ГГц** с основными таймингами **15-16-16-32 CR1** при напряжении 1,33 В.
Производительность Palit GeForce RTX 2060 GamingPro OC мы предлагаем сравнить с показателями эталонной версии NVIDIA GeForce RTX 2060 Founders Edition и ещё четырёх видеокарт. В качестве верхнего «среза» по производительности сегодня будет выступать Palit GeForce RTX 2070 Super JetStream 8 Гбайт, а из видеокарт предыдущего поколения новой модели будет противостоять оригинальная Gigabyte GeForce GTX 1080 G1 Gaming 8 Гбайт.
Кроме того, мы включили в тестирование две видеокарты на графических процессорах NVIDIA предыдущего поколения, представленные эталонными версиями NVIDIA GeForce GTX 1070 Ti и GeForce GTX 1060 на штатных частотах.
Добавим, что пределы по питанию и температуре на всех видеокартах были увеличены до максимально возможных, а в драйверах GeForce вместо оптимального энергопотребления был выставлен приоритет максимальной производительности. К сожалению, видеокарты на графических процессорах AMD в сегодняшнем тестировании отсутствуют, поскольку в наличии их для тестов не оказалось. Но вы всегда можете оценить производительность эталонной GeForce RTX 2060 в сравнении с ними по нашей предыдущей статье.
Тестирование, начатое 12 февраля 2018 года, было проведено под управлением операционной системы Microsoft Windows 10 Pro (1809 17763.292) со всеми обновлениями на указанную дату и с установкой следующих драйверов:
Отметим, что из шести видеокарт, участвующих в тестах, только Palit GeForce RTX 2070 Super JetStream мы протестировали на более ранней версии драйверов GeForce 417.35 WHQL, поскольку к моменту написания этого материала нам уже пришлось отправить её назад. Все же остальные видеокарты тестировались на указанной в списке версии драйверов NVIDIA.
В сегодняшнем тестировании мы использовали только разрешение 2560 × 1440 пикселей. Для тестов были задействованы два режима качества графики: Quality + AF16x – качество текстур в драйверах по умолчанию с включением анизотропной фильтрации уровня 16х и Quality + AF16x + MSAA 4х с включением анизотропной фильтрации уровня 16х и полноэкранного сглаживания по алгоритму MSAA степени 4x. В отдельных играх в силу специфики их игровых движков были использованы иные алгоритмы сглаживания, что будет указано далее в методике и непосредственно на диаграммах с результатами. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось в настройках игр. Если же данные настройки в играх отсутствовали, то параметры изменялись в панели управления драйверов GeForce. Там же была принудительно отключена вертикальная синхронизация (V-Sync). Кроме указанного, никаких дополнительных изменений в настройки драйверов не вносилось.
Видеокарты были протестированы в трёх графических тестах и в пятнадцати играх, обновлённых до последних версий на дату начала подготовки материала. Актуальный список тестовых приложений выглядит следующим образом (игры и далее результаты тестирования в них расположены в порядке их официального выхода):
Добавим, что если в играх реализована возможность фиксации минимального числа кадров в секунду, то оно также приводилось на диаграммах. Каждый тест проводился дважды, за окончательный результат принималось лучшее из двух полученных значений, но только в случае, если разница между ними не превышала 1 %. Если отклонения прогонов бенчмарков превышали 1%, то тестирование повторялось ещё как минимум один раз, чтобы получить достоверный результат.
**Результаты тестов производительности**
Дополним построенные диаграммы итоговой таблицей с результатами тестов с выведенными средним и минимальным значением числа кадров в секунду по каждой видеокарте.
Анализ результатов проведём по сводным диаграммам.
⇡#
**Сводные диаграммы и анализ результатов**
Сначала мы предлагаем оценить прирост производительности Palit GeForce RTX 2060 GamingPro OC в сравнении с NVIDIA GeForce GTX 1060 Founders Edition. Результаты последней видеокарты на диаграмме приняты за нулевую ось.
В среднем по всем играм новая видеокарта на графическом процессоре архитектуры Turing опередила модель на GPU Pascal, сменщиком которой она является, на 64,1% в режимах без использования сглаживания и на 66,4 % при его активации. Вполне уверенный прирост производительности, пусть даже обновленная видеокарта и не предлагается игрокам за те же деньги, что и прежняя.
Следующим соперником Palit GeForce RTX 2060 GamingPro OC будет Gigabyte GeForce GTX 1080 G1 Gaming с небольшим заводским разгоном ядра. Модель GeForce GTX 1080 всё ещё можно купить, но в российских магазинах стоит она примерно на 8-10 тысяч рублей дороже новых GeForce RTX 2060. При этом не будем забывать, что у GeForce GTX 1080 восемь гигабайт видеопамяти против шести на GeForce RTX 2060, пусть и более медленной. Смотрим, что получилось.
В большинстве игр Palit GeForce RTX 2060 GamingPro OC уступила предтопу предыдущего поколения, но разница не критична и в среднем по всем играм не превышает 5 %. Кроме того, в Rainbow Six: Siege новая модель видеокарты оказалась впереди, в Middle-earth: Shadow of War и Assassin's Creed Odyssey она равна GeForce GTX 1080, а в Metro Exodus (в профиле «RTX») немного медленнее только потому, что видеокарты на GPU NVIDIA предыдущего поколения не поддерживают RayTracing и DLSS.
На последней на сегодня сводной диаграмме мы сравним производительность Palit GeForce RTX 2060 GamingPro OC и Palit GeForce RTX 2070 Super JetStream, чтобы определить разницу в производительности между идущими друг за другом в иерархии видеокартами.
GeForce RTX 2060 вполне ожидаемо проиграла более дорогой модели на Turing, но отставание нельзя назвать существенным, поскольку оно не превышает 24 %, а в среднем по всем играм равно 14,5-16,2 %. Разница в цене между этими видеокартами в процентном выражении примерно втрое больше, чем разница в производительности, так что GeForce RTX 2060 нам видится более выгодным приобретением. Кроме того, видеокарта Palit уверенно разгоняется, что принесёт ей плюсом ещё 8-10 % производительности. Впрочем, нереференсные GeForce RTX 2070 в рознице стоят намного дешевле, чем Founders Edition, так что ситуация здесь всё же неоднозначная.
Измерение уровня энергопотребления проводилось с помощью блока питания Corsair AX1500i через интерфейс Corsair Link и утилиту мониторинга HWiNFO64 версии 6.01-3650. Измерялось энергопотребление всей системы в целом без учёта монитора. Тестирование было проведено в 2D-режиме при обычной работе в Microsoft Word или интернет-сёрфинге, а также в 3D-режиме. В последнем случае нагрузка создавалась с помощью двух последовательных циклов теста игры Call of Duty: WWII по нашей методике в разрешении 2560 × 1440 пикселей при максимальных настройках качества графики с использованием сглаживания. Энергосберегающие технологии центрального процессора в BIOS материнской платы отключены.
Сравним уровень энергопотребления систем с протестированными сегодня видеокартами по результатам на диаграмме.
Системы с видеокартами GeForce RTX 2060 в нашем сегодняшнем тесте оказались чуть ли не самыми экономичными, немного уступив только конфигурации с GeForce GTX 1060. При этом видеокарта Palit в пике нагрузки потребляет всего на 6 ватт больше эталонной версии NVIDIA. В 2D-режиме различия в уровне энергопотребления всех систем минимальны. Кроме того, отметим, что, несмотря на наличие в конфигурации разогнанного десятиядерного процессора и прочей периферии, все конфигурации уложились в 550 ватт. То есть каких-то особо мощных блоков питания для подобных систем не требуется.
В новой Palit GeForce RTX 2060 GamingPro OC мы можем отметить только два недостатка. Первый — видеокарту по непонятным причинам лишили ещё одного видеовыхода DisplayPort и порта USB-C. Возможно, большинству пользователей они никогда и не понадобятся, но смысл удаления этих портов нам не понятен. Если это экономия, то она какая-то прямо «плюшкинская». Второй недочёт относится к нанесению на кристалл графического процессора чрезмерного количества термопасты, что не позволяет системе охлаждения раскрыться в полной мере. Конечно, она и так эффективнее кулера эталонной версии NVIDIA GeForce RTX 2060 FE, но терять 4-5 градусов Цельсия вряд ли кому-то захочется, тем более что за наступившей весной последует жаркое лето, где каждый градус будет на счету.
В остальном Palit GeForce RTX 2060 GamingPro OC, с учётом её стоимости, мы можем назвать одной из наиболее интересных версий GeForce RTX 2060 для покупки. Видеокарта получила эффективную систему охлаждения с лаконичной подсветкой, шумит чуть меньше, чем эталонный вариант NVIDIA, а также хорошо разгоняется, достигая производительности GeForce GTX 1080 и совсем немного отставая от GeForce RTX 2070. Напомним мы и о трёхлетней гарантии, а также о дополнительной защите кристалла GPU пластиковой рамкой. В целом это довольно привлекательная модель с очень удачным сочетанием цены и производительности. |
983,905 | ToeJam & Earl: Back in the Groove — безумие в хорошем смысле слова. Рецензия | |
Жанр |Приключение
|
Издатель |HumaNature Studios
|
Разработчик |HumaNature Studios
|
Минимальные требования |Процессор Intel Core 2 Quad Q6600 2,4 ГГц/AMD Phenom X4 9850 2,5 ГГц, 4 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 1 Гбайт памяти, например NVIDIA GeForce 9800 GT/AMD Radeon HD 4870, 3 Гбайт на жестком диске
|
Рекомендуемые требования |Процессор Intel Core i3-3240 3,4 ГГц/AMD Phenom II X4 B40 3,0 ГГц, 6 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 2 Гбайт памяти, например NVIDIA GeForce GTX 650/AMD Radeon HD 6770
|
Дата выхода |1 марта 2019 года
|
Возрастной ценз
|
Платформы |PC, PlayStation 4, Xbox One, Nintendo Switch
|
Официальный сайт *Игра протестирована на * *Nintendo* *Switch*
О приключениях Тоджема и Эрла в наших краях слышали немногие — первая часть серии вышла почти три десятилетия назад на Sega Genesis (она же Mega Drive). Поэтому свеженькая ToeJam & Earl: Back in the Groove станет для западных игроков возможностью поностальгировать, а для остальных это как минимум стильный роглайк, для знакомства с которым вовсе не требуется знать, чем рэперы-инопланетяне занимались в прошлом тысячелетии.
В новой игре герои вновь попадают в передрягу, которая бы не случилась, если бы Тоджем и Эрл не угнали космический корабль в попытках произвести впечатление на своих подруг. Одна из девушек намекает, что вокруг как-то слишком тихо и желательно бы включить музыку, о чем Тоджем и просит своего товарища. Однако тот решает проигнорировать надпись «НЕ НАЖИМАТЬ» и призывает черную дыру, которая засасывает в себя и героев вместе с кораблем, и планету Земля, разделяя ее на несколько расположенных друг над другом платформ.
На этом история, по сути, заканчивается — протагонисту необходимо посетить более десятка этажей, найти на них все обломки корабля, собрать их воедино и отправиться домой. На выбор предлагаются шесть героев: две версии Тоджема, две версии Эрла и их подруги. Впоследствии вы разблокируете еще троих героев. Они обладают отличительными пассивными навыками (кто-то может есть испорченную еду, кто-то нет) и собственным набором характеристик: скорость, удача, запас здоровья, размер инвентаря и так далее.
По своему жанру это классический роглайк, как и первая часть (эксперименты из сиквела и триквела по большей части опустили). Вы появляетесь на одном из этажей, сверху показано, есть ли неподалеку деталь корабля, а где-то рядом расположен лифт, который отправит вас на следующий этаж. Посетили все этажи, собрали все десять деталей — все, игра пройдена, можно начинать заново.
Разработчики сделали все возможное, чтобы игрокам стало проще знакомиться с основами Back in the Groove. Поначалу доступен обучающий мир, более короткий и легкий в прохождении, а подсказки в нем появляются на каждом шагу. Затем можно отправиться в фиксированный мир, который для всех одинаков и чуть ли не идеально сбалансирован. Потом разблокируется возможность запуска случайно сгенерированного мира, а самым последним пунктом в меню стоит хардкорная версия случайного мира. Там противники куда опаснее, их больше, а возможности избавиться от них ограниченны.
Геймплей состоит из исследования этажей, сбора денег, поиска деталей и лифтов и использования подарков, которые или лежат на земле, или падают с деревьев, если их хорошенько потрясти. Нередко игроку не сообщают, что делает тот или иной подарок, и нужно либо открывать их вслепую, либо относить к старцу и за небольшую плату идентифицировать. Встречаются как положительные бонусы, вроде временного повышения характеристик или оружия, исчезающего через несколько секунд, так и отрицательные — неконтролируемые газы усложнят жизнь, а ускорители позволят очень быстро передвигаться, но могут привести к падению с верхнего этажа на нижний.
Главный герой не умеет драться — от врагов он может лишь убегать, хотя на этажах часто встречаются персонажи, готовые помочь ему за пару долларов. Есть оперная певица, уничтожающая своим пением всех вокруг, есть Ганди, генерирующий вокруг себя безопасную область, куда никто не может зайти. Кто-то извергает молнии, сбрасывающие с деревьев все предметы, а кто-то просто вызывает протагониста на танцевальный баттл, оформленный в простенькую мини-игру.
Одним из главных нововведений стала система прокачки. Открывая карту местности, танцуя и распаковывая подарки, вы получаете очки опыта и при заполнении соответствующей шкалы можете подойти к старцу и получить новый уровень. Таким образом повысятся три случайные характеристики (хотя выпасть может одна и та же три раза), что к концу прохождения наверняка пригодится. Если Эрл кажется слишком медленным и не успевает спастись от назойливого фаната, бьющего его по голове при каждой встрече, стоит набираться опыта и надеяться на увеличение скорости.
Легкий режим займет около часа, а сложный — не более двух. Хотя все зависит от того, как разнообразить себе прохождение. В главном меню есть объемный список достижений и разблокируемых головных уборов, для получения которых нужно выполнить определенные условия: пройти игру без использования каких-либо подарков, без убийств (то есть пользоваться услугами некоторых помощников нежелательно), открыть полностью карту на трех этажах, что порой не так легко, как кажется, и так далее. Эти условия очень разнообразны и заставляют взглянуть на игру иначе. Они — одна из главных причин постоянно возвращаться в Back in the Groove.
Часть испытаний связана с кооперативным режимом, в котором игра становится еще веселее. Так или иначе, но хотелось бы видеть чуть более разнообразные локации — после нескольких часов одни и те же виды начинают утомлять. Кооператив это сглаживает: исследовать этажи, искать секреты и совместно решать проблемы куда увлекательнее. Дай пять товарищу — восстанови здоровье!
К счастью, в Back in the Groove есть не только локальный кооператив с разделением экрана, но и онлайн-мультиплеер. При игре в одиночку вас обязательно спросят, хотите ли вы видеть в своем мире других пользователей, да и вы сами можете подключиться к кому-нибудь и развлекаться в этом безумном мире со случайными напарниками. Не хватает лишь кросс-платформенного онлайна, но о его отсутствии разработчики предупреждали еще во время сбора средств на Kickstarter.
Выглядит игра очень стильно, да и вообще дает ощущение, будто ты вернулся на тридцать лет назад и окунулся в атмосферу тех времен. Никаких вчерашних мемов, нелепых неуместных шуток, попыток «осовременить» Back in the Groove отсылками, которые устареют через пару лет. Юмор может быть глуповатым, но он добродушный и обезоруживающий — улыбка с лица не сходит даже при третьем, четвертом и всех последующих прохождениях. Анимация забавная, музыка отличная, герои здорово озвучены, а управление и интерфейс очень удобны.
*******
ToeJam & Earl: Back in the Groove можно рекомендовать не только фанатам этого странного дуэта, если такие есть среди наших читателей, но и поклонникам необычных роглайков. Здесь можно вдоволь повеселиться в одиночку, пробуя разные режимы и пытаясь выполнить несколько десятков оригинальных условий, а также в кооперативе — как за одним экраном, так и посредством онлайн-мультиплеера. Игру трудно назвать новым словом в жанре или чем-то обязательным для ознакомления, но она дарит столько положительных эмоций, что уже после первого прохождения ее хочется советовать всем друзьям и знакомым.
**Достоинства:** **Недостатки:**
|
|
Яркая, стильная и приятная глазу картинка выглядит прекрасно и в статике, и в динамике.
|
|
Забавное озвучение и здорово дополняющая атмосферу музыка — большего от такого рода игры не требуется.
|
|
Звать кого-то или подключаться к другим игрокам не обязательно, проходить фиксированные и случайные миры увлекательно даже в одиночку. Пройдет немало времени, прежде чем игра надоест, — для «рогалика» это очень важно.
|
|
В любой момент к вам могут зайти другие игроки, равно как и вам ничто не мешает к кому-то подключиться. Но с друзьями изучать этажи, конечно, куда веселее, чем с «рандомами», а делать это можно как за одним экраном, так и в онлайне.
|
|
Веселое и стильное приключение для всех. И не важно, знаете ли вы что-то о прошлых похождениях рэперов-инопланетян.
*Оценка: 8* *,0* */10* **Видео:** |
983,971 | Devil May Cry 5 — ну и стоило оно того? Рецензия | |
Жанр |Слешер
|
Издатель |Capcom
|
Разработчик |Capcom
|
Минимальные требования |Процессор Intel Core i5-4460 3,2 ГГц/AMD FX -6300 3,5 ГГц, 8 Гбайт ОЗУ, видеокарта с 2 Гбайт памяти и поддержкой DirectX 11, например NVIDIA GeForce GTX760/AMD Radeon RX7260, 35 Гбайт на жестком диске
|
Рекомендуемые требования |Процессор Intel Core i7-3770 3,4 ГГц/AMD FX -9590 4,7 ГГц, 8 Гбайт ОЗУ, видеокарта с 6 Гбайт памяти, например NVIDIA GeForce GTX 1060/AMD Radeon RX480
|
Дата выхода |8 марта 2019 года
|
Возрастной ценз
|
Платформы |PC, PlayStation 4, Xbox One
*Игра протестирована на PC*
От перезагрузки в лице DmC: Devil May Cry, которая интересно переработала знакомых персонажей под современный антураж, а заодно круто вписала в игру аллюзии на тотальную слежку, потребительство и прочие прелести нашего мира, «настоящие фанаты» серии взвыли. И Данте им не такой, и боёвка другая, и вообще британцы из Ninja Theory сделали всё не так. А на волосы, на волосы-то посмотрите! Тогда Capcom испугалась негативной реакции и падения продаж и сдала назад, убив потенциальный сиквел ради прямого продолжения DMC. Пятую часть обещали сделать, цитирую, «самым безумным и динамичным слешером этого поколения», а Хидетака Ицуно радостно кричал со сцены «DMC is back!», подливая масла в огонь. Заявка, конечно, крутая, но не выгорело.
**Вас слишком много!**
Да, технически серия действительно вернулась в руки японцев. Все герои выглядят и ведут себя как раньше, сюжет в обновлённой хронологии продолжается после событий четвёртого выпуска, а к компании присоединился новый загадочный герой по имени V (Ви). И раз уж хотели старого Данте, то вот он. Только ему опять выделили меньше половины игры.
Оставшиеся задания делят между собой два других героя. Неро практически не изменился за прошедшие 11 лет. Ну разве что парень лишился своей магической руки и теперь пользуется разнообразными протезами. Если в DMC4 он вам не нравился, то и здесь ждать кардинальных изменений не стоит — это всё такой же скучный, медленный персонаж, в арсенале которого лишь один меч да один пистолет. Как следствие, мало разнообразия и приёмов. Правда, после первого прохождения герой становится интереснее, поскольку целиком раскрывает свои способности, за счёт чего заново пробегать задания на более высокой сложности чуточку веселее.
С искусственными конечностями связана довольно спорная механика. Сами по себе они полезны и обладают разными способностями: одна подкидывает персонажа в воздух, другая улетает на расстояние и дубасит противника, третья бьёт электрическим разрядом. Только почему-то руку в бою можно поменять, только, эммм, взорвав её. Тогда герой переключится на следующую в списке. К тому же на локациях валяются другие протезы, которые при подборе попадают в активный слот, хотите вы этого или нет (из-за чего можно случайно лишить себя удобного навыка). Неудобненько-с, тем более устройства — расходный материал, который необходимо покупать.
Впрочем, за Неро играть пусть и скучновато, но всё-таки терпимо. V же, новичок серии, являет собой один из худших персонажей, которые только можно было придумать для слешеров. Сам он слишком слаб для прямого противостояния, поэтому в уничтожении демонов полагается на призванных существ. И пока Грифон (дальняя атака) с Тенью (ближний бой) разносят врагов, мрачный паренёк расхаживает в другом углу, читает книгу и время от времени, так и быть, телепортируется в гущу событий, чтобы нанести противнику добивающий удар, поскольку фантомы этого сделать не могут.
Я, как и множество других поклонников Devil May Cry, люблю серию в том числе за возможность стильно расправляться с врагами, набивая ранг в боях до максимального, что довольно непросто. Ну, было непросто. При игре за этого чудика с тросточкой достаточно попеременно нажимать кнопки, отвечающие за удары, и заветный SSS будет висеть на экране почти всё время. Если же призвать на арену огромного бессмертного голема, который автоматически выкашивает беспомощных соперников табунами, или за счёт маны отдать компьютеру управление двумя другими существами, то можно вообще отложить контроллер в сторону и просто дожидаться удобного момента для добивания всех врагов. Что там обещали разработчики, самый безумный слешер поколения? Как-то совсем не вяжется с происходящим на экране.
И только Данте буквально за уши вытаскивает пятую часть. Старый знакомый ничуть не потерял в скорости, а возможность на лету комбинировать четыре стиля и восемь видов вооружения позволяет творить в боях обещанное безумие, от которого захватывает дух. Когда издеваешься над врагами, не давая им упасть или же гоняя пинками по всей арене, появляется ощущение, что вот она, та самая новая часть серии, которую так хотелось видеть. Злая, сложная, дико динамичная. Требующая знать своего героя от и до, понимать, какая экипировка для какой ситуации лучше подходит, оттачивать свои навыки и учиться парировать выпады врагов, чтобы в следующий раз раскидать всех ещё круче, ещё зрелищнее!
Будь вся Devil May Cry 5 такой, как её последние 3-4 миссии, то у неё были бы все шансы взобраться на пьедестал. Однако под ногами назойливо мешаются Неро (в меньшей степени) и V (в гораздо большей). Последний вообще висит мёртвым грузом. Просто запустите миссию за одного из них, а потом переключитесь обратно на Данте. Разница в скорости и возможностях кардинальна — и далеко не в пользу этой парочки.
Даже удерживать ранг в боях, управляя охотником на демонов, не в пример труднее, чем двумя другими, поскольку для хорошего результата требуется использовать куда больше приёмов, а не чередовать несколько ударов по кругу или тупо отсиживаться в углу, бездумно катаясь пальцами по контроллеру. Capcom уже второй раз не может сделать нормальный сольник про Данте, что после истории с DmC вообще больше похоже на троллинг, — кричать про возвращение серии к истокам и не давать любимцу публики даже половины экранного времени.
**И демоны рыдают со скуки**
Японские слешеры всегда отличались безумным экшеном в заставках, а Devil May Cry старалась быть в числе первых. Помните адреналиновые ролики в третьей части? Перестрелка с Леди, замес в офисе, полёт с башни с попутным расстрелом летающих гадов. Да одно пафосное надевание плаща в начале второй миссии чего стоило! Четвёртый выпуск получился более размеренным, но у него тоже были свои моменты вроде драки двух главных героев и гениальной театральной постановки с одним из боссов.
«Пятёрка» же зачем-то старается быть куда серьёзнее и, кхм, реалистичнее, что не особо-то играет ей на руку. Хотя бы по той причине, что после прохождения не за что зацепиться: здесь банально нет ни вау-моментов, ни крутой постановки сражений, зато много общения и страданий V. Привычно отжигает лишь Данте, но чаще только словами. Дерзкая милашка Нико тоже получилась забавной и постоянно развлекает своей манерой разговаривать, но на этом всё. Хотели видеть Триш и Леди? Они тут так, для вида.
Да и по части локаций пятая часть выглядит откровенно слабо — нам предлагают лицезреть череду коридоров, где ничего не происходит. Они просто связывают между собой арены. Переходы настолько однообразны, что порой даже сложно понять, какой уровень сейчас проходишь, — почти всё в игре выглядит одинаково безлико. Элемент исследования исчез — если в DMC3 башня постепенно раскрывала свои секреты, а в DMC4 снежные поля сменялись замком и затем джунглями, то здесь просто несешься по прямой. Раз так, то и необходимость запоминать, что и где находится, для уменьшения времени прохождения заданий отпала.
В DmC использовалась похожая структура с не связанными одной картой миссиями, но тогда Ninja Theory настолько здорово поработала над дизайном уровней, что скучать было некогда. Все эти дикие преобразования огромных бетонных строений, сужающиеся коридоры, удлиняющиеся комнаты и прочие безумные выкрутасы не только смотрелись невероятно стильно, но и на пару с платформингом не давали расслабиться. DMC5 мало того, что не предлагает даже десятой доли этого, так ещё и не может дотянуться по качеству окружения до своих же японских предшественников.
**Зато красиво!**
Пятую часть можно назвать самым технологичным слешером в мире. Капкомовский RE Engine опять показывает себя во всей красе как по части эффектов и анимаций (особенно лицевой), так и в оптимизации. Игра не требует особо мощной машины, а графических настроек уйма, так что выбить стабильную частоту кадров не составит труда. Если, конечно, вы не пытаетесь играть на совсем уж доисторической картошке. А как круто здесь выглядят хроносферы, замедляющие время внутри себя, и атаки некоторых боссов! Жаль, что, располагая таким движком, нам за редким исключением предлагают настолько безликие уровни.
Кстати, о боссах. Подавляющее большинство не представляет особой угрозы, поскольку телеграфирует свои намерения за неделю до нанесения удара, а шаблонов атак у них не так много. Знакомые с серией наверняка пролетят такие сражения с первого раза без проблем. Разгоняется пятая часть лишь с 17-й миссии: вот там схватка получилась классной, а уж финальный бой во всей красе показывает, зачем Capcom так накрутила графическую составляющую. Однако в остальных моментах сражения проходят в довольно спокойном режиме и поднапрячь могут разве что на последнем уровне сложности.
Вероятно, менее агрессивное поведение боссов связано с тем, что из Devil May Cry 5 полностью вырезали инвентарь. Теперь грубо давить грозного соперника, пожирая аптечки в промышленных масштабах, не выйдет, поскольку лечиться можно лишь зелёными сферами на уровне да формой демона. Поэтому противники и не особо стараются убить героя, оставляя ему как пространство для манёвра, так и время на перекаты и принятие решений.
Если же вы всё-таки огребли по лицу, то есть два варианта подняться на ноги и вновь ринуться в бой. Первый — использовать специальный предмет, чтобы восстановить сразу всё здоровье. Он, к примеру, даётся за ежедневный вход в игру или же подбирается единоразово на уровнях. Второй — красные сферы для пополнения шкалы жизни на определённое количество делений. Естественно, чем больше хочешь, тем дороже будет стоимость воскрешения. Вдобавок каждый последующий раз сумма будет существенно увеличиваться. Казалось бы, при чём тут магазин с микротранзакциями?
**Так стоило ли столько ждать?**
Вообще, слешеры типа Devil May Cry созданы для того, чтобы пробегать их раз за разом на более высокой сложности, когда меняется состав врагов, они бьют больнее, а сильные соперники появляются уже в самом начале. Это мотивирует становиться лучше, оттачивать свои навыки и в процессе развлекаться, стильно и круто расправляясь с живучими врагами. Именно поэтому я в совокупности потратил не одну сотню часов в погоне за лучшими рейтингами практически во всех играх серии, включая DmC.
Однако DMC5 стала второй после DMC2 частью, куда мне попросту не хочется возвращаться после нескольких прохождений. Здесь нет каких-либо интересных ситуаций и заставок, локации максимально однообразны, опять нужно терпеть Неро, а при одной мысли об очередной миссии за V появляется желание запустить что угодно, только не её. Единственное исключение — задания за Данте, к ним никаких претензий, даже с учётом дизайна локаций, нет, их весело переигрывать раз за разом. Жаль, что их преступно мало.
К тому же за время, прошедшее между четвёртым и пятым выпуском, появилась не только стильная и необычная DmC, но и шедевры от Platinum Games. Что дилогия Bayonetta, что Metal Gear Rising уделывают этот «лучший слешер поколения» одной левой, предлагая и безумные ситуации, и шикарные адреналиновые ролики, и мощнейших боссов, и, главное, крутых главных персонажей, а не парней с тросточками. Да что там говорить, «пятёрка» даже своим предшественницам не может ничего противопоставить! До DMC3 ей очень и очень далеко, а к DMC4, несмотря на все её проблемы с повторным использованием локаций, новая игра Capcom смогла подползти лишь с большим натягом.
Да и вообще Devil May Cry 5, вместо того чтобы завлекать, отталкивает от себя, заставляет раз за разом пережидать скучные моменты ради редких ярких вспышек и возможности сражаться за Данте. Даже если пропускать все заставки, терпения со скрипом хватает на пару прохождений, а дальше желание запускать игру пропадает полностью. На фоне практически полного отсутствия слешеров и рак, конечно, станет рыбой, но слишком уж неравноценная получается трансформация.
**Достоинства:**
игра за Данте превращается в настоящую DMC;
**Недостатки:**
паренёк по имени V;
|
|
Я уже не раз хвалил RE Engine, но лишний раз не помешает. Capcom сделала крутой движок с хорошей оптимизацией, который и ресурсов много не требует, и картинку шикарную выдаёт.
|
|
Крутая задумка с боевым саундтреком — чем лучше сражаешься и выше ранг, тем динамичнее он звучит. Заставляет выкладываться на полную катушку.
|
|
Обычная для серии двадцатка миссий, однако вместо сольника Данте Capcom сделала игру аж про троих персонажей, причём два других не дотягивают до охотника на демонов. Как следствие, подавляющая часть игры не может похвастаться высокой динамикой.
|
|
Прямого мультиплеера в игре нет, но на совместных уровнях вы можете встретить других игроков, а не управляемых ИИ персонажей.
|
|
Когда-нибудь Capcom выделит Данте целую игру. Ну а сейчас у неё получился одноразовый слешер с ужасно однообразными локациями, скучным новым персонажем и отсутствием интересных ситуаций. Главный герой серии помогает проекту не укатиться ещё ниже, но храбрецу-одиночке отчаянно не хватает экранного времени.
*Оценка: 7* *,0* */10* **Видео:** |
984,005 | Обзор NVMe SSD-накопителя Crucial P1: NVMe по цене SATA | Путь Crucial на рынок твердотельных накопителей с интерфейсом NVMe оказался на редкость извилистым и долгим. Несмотря на то, что этот бренд принадлежит Micron, имеющей и собственное производство флеш-памяти, и гигантские инженерные ресурсы, в модельном ряду Crucial до недавних пор вообще не было ни одного накопителя с прогрессивным интерфейсом. Компания предпочитала заниматься выпуском SATA SSD, которые у неё неплохо получались, а перспективный сегмент высокопроизводительных накопителей для энтузиастов по какой-то причине обходила стороной.
Хотя на самом деле это не совсем так. Попытку начать поставки NVMe SSD для массового рынка Micron предпринимала в 2016 году, когда в её стенах был разработан продукт с названием Crucial Ballistix TX3, объединяющий контроллер SM2260 с MLC 3D NAND-памятью. Однако в конечном итоге свет он так и не увидел. Буквально за несколько дней до официального анонса компания внезапно отказалась от его выпуска и полностью свернула всю программу разработок SSD с интерфейсом NVMe. Причиной столь кардинального разворота, по слухам, стала неудовлетворительная производительность получившегося решения, во что нетрудно поверить, памятуя о том, насколько неудачным был контроллер SM2260.
Очень похоже, что по итогам этой истории у Micron развился самый настоящий посттравматический синдром, и в течение последующих двух лет компания так ни разу и не попыталась снова выйти на рынок SSD с NVMe-интерфейсом. Надо сказать, совершенно напрасно. За это время конкуренты Micron не просто успели переделить между собой весь рынок прогрессивных накопителей, а прочно закрепились на нём, заставив энтузиастов высокой производительности забыть о существовании популярной в прошлом марки Crucial. Особенно сильно от отсутствия NVMe-накопителей Crucial выиграла фирма ADATA, которая принялась штамповать NVMe SSD, опираясь на платформы разработки Silicon Motion и начиняя их закупаемой у Micron флеш-памятью. А ведь именно такие SSD вполне могли бы предлагаться и под маркой Crucial, с учётом того, что Micron и Silicon Motion связывают близкие партнёрские отношения. Нет никаких сомнений в том, что тот же ADATA XPG SX8200 был бы вполне достоин носить бренд Crucial, но не сложилось.
Тем не менее в конце концов к Micron всё же пришло понимание, что медлить больше нельзя, и осенью прошлого года компания наконец-то представила свой первый потребительский накопитель с интерфейсом NVMe, Crucial P1. Однако с учётом сложившейся конъюнктуры, компания решила зайти на рынок NVMe-накопителей не совсем стандартным путём – снизу. То есть выпустить максимально дешёвый NVMe SSD, который может оказаться интересным для потребителей за счёт того, что в нижнем ценовом сегменте изделия производителей первого эшелона практически не представлены.
Для этого компания разработала оригинальное решение, которое объединило скоростную шину PCI Express 3.0 x4 c бюджетной QLC 3D NAND-памятью, что действительно позволило получившемуся накопителю стать одним из самых доступных вариантов среди представленных на прилавках NVMe SSD. Беда лишь в том, что QLC 3D NAND на данный момент принято считать синонимом невысокой производительности и сомнительной надёжности. Впрочем, такие выводы были сделаны ещё до того, как на рынке появился Crucial P1. Возможно этот SSD, построенный на памяти Micron, отличается от прочих QLC-накопителей в лучшую сторону. Поэтому, когда у нас появилась возможность познакомиться с этой новинкой поближе, отказываться мы не стали.
Компания Micron не занимается разработкой контроллеров для SSD, поэтому Crucial P1 основывается на чипе сторонней фирмы – Silicon Motion. Выбор в партнёры именно этой инженерной команды достаточно очевиден. Во-первых, Micron уже давно и успешно использует контроллеры SMI в своей SATA-продукции, а во-вторых, на данный момент только эта фирма может предложить готовую к интеграции серийно поставляемую платформу для NVMe-накопителей с поддержкой QLC 3D NAND. Базируется эта платформа на чипе SM2263EN, представляющем собой урезанную версию популярного SM2262 – нашего фаворита среди контроллеров независимых разработчиков.
С контроллером SM2263EN мы тоже уже встречались ранее: именно он используется в накопителе Intel SSD 660p, который, как и Crucial P1, тоже построен на QLC 3D NAND. Однако решение, реализованное Micron, несколько отличается от интеловского, и не только тем, что оно опирается на собственную флеш-память этого производителя. Различия есть и в микропрограмме, которую Micron и Intel разрабатывали и оптимизировали независимо друг от друга, и в том, что Micron, в отличие от Intel, не стала экономить на DRAM-буфере и урезать его ёмкость. Иными словами, несмотря на то, что Crucial P1 и Intel SSD 660p вполне правомерно считать родственниками, родство между ними не такое уж и близкое. Но всё равно избежать постоянных сопоставлений этих моделей нам не удастся при всём желании.
В частности, эти два SSD схожи в главном – оба они относятся к категории бюджетных NVMe-накопителей, которые борются за внимание потребителей в первую очередь при помощи цены. И это закономерно, потому что производительность таких решений серьёзно ограничивается как минимум двумя факторами: архитектурой четырёхбитовой флеш-памяти и параметрами контроллера.
QLC 3D NAND построена на ячейках с шестнадцатью значимыми уровнями напряжения, программирование и распознавание которых представляет собой достаточно сложную задачу для контроллера. Поэтому QLC 3D NAND в любом случае работает существенно медленнее, чем привычная TLC 3D NAND. Кроме того, и сам контроллер SM2263EN предлагает для обслуживания массива флеш-памяти лишь четыре канала, что тоже сказывается на производительности.
Также стоит иметь в виду, что степень параллелизма массива, собранного из кристаллов QLC 3D NAND авторства Micron, будет в любом случае ниже, чем у накопителей с TLC-памятью, и ещё по одной причине. Четырёхбитовая флеш-память этого производителя имеет 64-слойный дизайн и ёмкость кристаллов 1 Тбит, что вдвое или даже вчетверо больше ёмкости типичных устройств TLC 3D NAND. Таким образом, при прочих равных контроллер Crucial P1 не сможет так же эффективно распараллеливать запросы, как это делают контроллеры в накопителях на базе TLC 3D NAND.
Всё перечисленное закономерно приводит к тому, что Crucial P1 принципиально не может сравниться с качественными NVMe-накопителями на базе TLC-памяти. И данный тезис находит самое прямое отражение в заявляемых характеристиках.
|
Производитель |
Crucial
|Серия
|P1
|Модельный номер
|CT500P1SSD8
|CT1000P1SSD8
|Форм-фактор
|M.2 2280
|Интерфейс
|PCI Express 3.0 x4 – NVMe 1.3
|Ёмкость, Гбайт
|500
|1000
|
Конфигурация
|Флеш-память: тип, техпроцесс, производитель
|Micron 64-слойная 1-Тбит QLC 3D NAND
|Контроллер
|Silicon Motion SM2263EN
|Буфер: тип, объём
|DDR3-1866, 512 Мбайт
|
Производительность
|Макс. устойчивая скорость последовательного чтения, Мбайт/с
|1900
|2000
|Макс. устойчивая скорость последовательной записи, Мбайт/с
|950
|1700
|Макс. скорость произвольного чтения (блоки по 4 Кбайт), IOPS
|90 000
|170 000
|Макс. скорость произвольной записи (блоки по 4 Кбайт), IOPS
|220 000
|240 000
|
Физические характеристики
|Потребляемая мощность: бездействие/чтение-запись, Вт
|0,08/8
|MTBF (среднее время наработки на отказ), млн ч
|1,5
|Ресурс записи, Тбайт
|100
|200
|Габаритные размеры: Д × В × Г, мм
|80,15 × 22,15 × 2,38
|Масса, г
|17
|Гарантийный срок, лет
|5
В целом для Crucial P1 декларируется немного более высокая производительность, чем для Intel SSD 660p. Но до передовых накопителей ему далеко, хотя, обладая полноценным интерфейсом PCI Express 3.0 x4, по линейным скоростям он всё же превосходит те NVMe SSD, которые работают через шину PCI Express 3.0 x2.
Но здесь нужно напомнить, что обычно декларируемые производителем характеристики относятся к SLC-кешу, который должен замаскировать реальную скорость медленного массива флеш-памяти. И в случае Crucial P1 это ему достаточно неплохо удаётся. Кеширование здесь работает по динамическому принципу, то есть при записи QLC-память используется в быстром SLC-режиме. Переключение ячеек в штатный режим происходит по возможности незаметно для пользователя в моменты простоя накопителя. Таким образом, реальную скорость массива QLC 3D NAND можно увидеть только в том случае, если объём одномоментной записи на SSD превысит размер кеша.
Чтобы проиллюстрировать, как это выглядит на практике, предлагаем посмотреть на быстродействие при непрерывной линейной записи на чистый Crucial P1 ёмкостью 500 Гбайт.
Первое, что бросается в глаза, — это крайне низкая скорость линейной записи за пределами SLC-кеша. Она составляет порядка 55 Мбайт/с, что намного хуже даже по сравнению с показателями механических жёстких дисков, не говоря уже о современных SSD на TLС-памяти. К счастью, при реальном использовании столкнуться с таким падением производительности будет непросто, так как SLC-кеш у Crucial P1 способен распространяться на половину всей свободной флеш-памяти накопителя, и это позволяет записать с «хорошей» скоростью порядка одной восьмой от общего свободного объёма SSD. Правда, прилагательное «хорошей» нам пришлось взять в кавычки, так как даже в SLC-режиме скорость линейной записи у полутерабайтного накопителя достигает лишь 900 Мбайт/с. А это, например, сравнимо с производительностью массива TLC-памяти у того же Samsung 970 EVO Plus безо всякого кеширования.
Учитывая плачевную скорость QLC-памяти, разработчики Micron позаботились и о том, чтобы пользователи по возможности не сталкивались с ней даже тогда, когда свободного места на накопителе остаётся немного. Для этого у размера SLC-кеша есть неснижаемый нижний порог: 6 Гбайт для полутерабайтного накопителя и 12 Гбайт – у терабайтного. Память, необходимая для обеспечения работы SLC кеша при заполненном SSD, берётся из недоступного для пользователя резерва.
Помимо быстродействия, SSD на базе QLC 3D NAND выделяются не в лучшую сторону на фоне TLC-накопителей и условиями гарантии. Формально для своей 64-слойной QLC 3D NAND компания Micron обещает способность переносить не менее 1000 циклов стирания-программирования. Однако заявленный предельный объём разрешённой записи на Crucial P1 предполагает возможность перезаписать этот накопитель за время службы лишь 200 раз, а затем гарантия аннулируется. При этом гарантийный срок установлен в 5 лет, что как бы намекает, какая роль должна отводиться этому накопителю. Хорошо подойдёт он лишь для долговременного хранения пользовательских данных и для использования в сценариях, где на однократную запись приходятся множественные операции чтения. В этом отношении Crucial P1 не отличается от Intel SSD 660p.
Зато разница есть в другом – инженеры Micron решили подстраховаться за счёт увеличения объёма резервных ячеек. Пользователям Crucial P1 доступно лишь 91 % от общей ёмкости массива флеш-памяти, остальное пространство отводится на подменный фонд. Кроме того, в модельном ряду Crucial P1 максимальная ёмкость ограничивается терабайтом, в то время как Intel SSD 660P бывают и вдвое большего размера.
⇡#Внешний вид и внутреннее устройство
Для тестирования мы получили экземпляр Crucial P1 ёмкостью 500 Гбайт. Это – младшая модель, которая имеет наименьшую степень параллелизма массива флеш-памяти, а потому её показатели производительности ниже, чем у терабайтного накопителя. Но зато и стоимость такого SSD очень привлекательна — даже несмотря на то, что речь идёт о решении с шиной PCI Express 3.0 x4, работающем по протоколу NVM Express 1.3.
Внешний вид Crucial P1 достаточно типичен: это M.2-накопитель формата 2280, выполненный на печатной плате с текстолитом чёрного цвета. Все компоненты на SSD с ёмкостью 500 и 1000 Гбайт размещаются на одной стороне платы, что делает возможным установку таких моделей в «низкопрофильные» M.2-слоты. Однако дизайн печатной платы предполагает возможности размещения компонентов и на обороте. Очевидно, что это – задел под предстоящий выпуск Crucial P1 объёмом 2 Тбайт.
На лицевой стороне накопителя наклеена этикетка, которая в данном случае информативнее, чем на большинстве продуктов конкурентов. Помимо названия, ёмкости, артикулов, серийных номеров и прочей служебной информации, производитель не постеснялся указать установленную на заводе версию прошивки, а также тот факт, что накопитель собран в Мексике.
Если отклеить ярлык, то можно рассмотреть весь набор элементов, из которых состоит Crucial P1.
Но мы бы в первую очередь хотели обратить внимание не на микросхемы, а на несколько другие вещи. Почти все SSD под маркой Crucial оснащались раньше батареей конденсаторов, которая обеспечивала целостность данных в случае внезапных отключений питания, и это было уникальной «фишкой» потребительских предложений компании. Не имели её лишь бюджетные модели серии BX, и похоже, что новый P1, хотя и получил прогрессивный интерфейс, на самом деле отнесён производителем примерно к тому же «низшему» классу. Никакой защиты в схеме питания здесь не предусмотрено. Но вместе с тем изюминка в схемотехнике этого накопителя всё же есть: он оборудован индикатором активности – зелёным светодиодом, который загорается при обращении к флеш-памяти.
Из чипов, используемых в конструкции Crucial P1, сразу обращает на себя внимание базовый контроллер SM2263EN. Он закрыт никелированной крышкой, которая помогает в отводе тепла. Несмотря на то, что этот контроллер относится к удешевлённым решениям, в нём используется двухъядерный процессор ARM Cortex-R, а потому заметный нагрев во время работы как минимум не исключён.
Помогает контроллеру в работе оперативная память, представленная полугигабайтной микросхемой DDR3-1866 производства самой Micron. Она используется для хранения копии таблицы трансляции адресов и имеет типичный размер из расчёта 1 Мбайт на каждый гигабайт ёмкости накопителя. Это значит, что инженеры Micron не стали пытаться дополнительно сэкономить за счёт перехода на безбуферный дизайн, и Crucial P1 должен быть способен достаточно эффективно обслуживать мелкоблочные операции.
Массив флеш-памяти состоит из двух микросхем Micron MT29F2T08GEHAFJ4:A, в каждой из которых заключено по паре терабитных кристаллов 64-слойной QLC 3D NAND второго поколения. Таким образом, четырёхканальный контроллер в Crucial P1 ёмкостью 500 Гбайт работает без чередования оконечных устройств в каналах.
Компания Crucial развивает специализированную сервисную утилиту Crucial Storage Executive, которая в своих последних версиях полностью совместима и с новым Crucial P1. Однако, во-первых, утилита эта несколько громоздка, поскольку написана на JAVA и работает через браузер, а во-вторых, большинство её возможностей NVMe-накопителям недоступно.
Впрочем, базовую функциональность она обеспечивает. В первую очередь Crucial Storage Executive позволяет следить за общим состоянием накопителя и его SMART-параметрами.
Во-вторых, в Crucial Storage Executive предусмотрены более интересные функции для глубокого обслуживания накопителя. Но обладателям Crucial P1 из них будет доступно лишь обновление прошивок (новые версии которых для этого накопителя пока не выходили) и возможность зарезервировать на SSD дополнительное пространство для повышения выносливости.
Кроме того, в Crucial Storage Executive реализована функция кеширования дисковых операций в оперативной памяти компьютера – Momentum Cache. Это некий аналог технологий Samsung Rapid. Используя до четверти доступной в системе оперативной памяти, Momentum Cache может существенно повысить скорость выполнения любых дисковых операций.
Уникальность реализованной разработчиками Crucial функции Momentum Cache состоит в том, что задействованная под неё оперативная память может динамически высвобождаться для работы других приложений. Впрочем, обычно мы не рекомендуем полагаться на какие бы то ни было технологии RAM-кеширования, так как они по понятным причинам не слишком надёжны и не гарантируют сохранность информации при аппаратных или программных сбоях.
Тестирование проводится в операционной системе Microsoft Windows 10 Enterprise x64 Build 16299, корректно распознающей и обслуживающей современные твердотельные накопители. Это значит, что в процессе прохождения тестов, как и при обычном повседневном использовании SSD, команда TRIM поддерживается и активно задействуется. Измерение производительности выполняется с накопителями, находящимися в «использованном» состоянии, которое достигается их предварительным заполнением данными. Перед каждым тестом накопители очищаются и обслуживаются с помощью команды TRIM. Между отдельными тестами выдерживается 15-минутная пауза, отведённая для корректной отработки технологии сборки мусора. Во всех тестах используются рандомизированные несжимаемые данные.
Раздел, в пределах которого тестируется скорость операций, имеет размер 32 Гбайт, а продолжительность каждого теста составляет сорок секунд. Такие параметры, в частности, позволят получать более релевантные результаты для тех SSD, которые используют различные технологии SLC-кеширования.
Используемые приложения и тесты:
С выходом процессоров Coffee Lake Refresh мы решили в очередной раз обновить тестовую систему, которая используется для измерения производительности NVMe-моделей SSD. Всё-таки подобные накопители в первую очередь покупают энтузиасты, переходящие на новые платформы, и поэтому логично использовать в тестовых испытаниях новейшую платформу.
В итоге в качестве тестовой платформы используется компьютер с материнской платой ASRock Z390 Taichi, процессором Core i7-9700K со встроенным графическим ядром Intel UHD Graphics 630 и 8 Гбайт DDR4-2666 SDRAM. Накопители с интерфейсом M.2 во время тестирования устанавливаются в соответствующий слот материнской платы, подключённый к чипсету. Накопители в виде карт PCI Express устанавливаются в слот PCI Express 3.0 x4, также работающий через чипсет.
Объём и скорость передачи данных в бенчмарках указываются в бинарных единицах (1 Кбайт = 1024 байт).
Отдельное пояснение следует сделать относительно закрытия процессорных уязвимостей Meltdown и Spectre. Существующие патчи заметно снижают производительность твердотельных накопителей, поэтому измерения проводятся с деактивированными «заплатками» OC, предназначенными для закрытия этих уязвимостей.
⇡#Список участников тестирования
Crucial P1 – недорогой накопитель с NVMe-интерфейсом. Его прямыми конкурентами являются не решения класса Samsung 970 EVO Plus, а куда более дешёвые модели. Поэтому наряду с результатами постоянных участников тестов на диаграммах вы найдёте показатели производительности играющих в той же ценовой категории доступных NVMe-накопителей вроде Intel SSD 660p или Kingston A1000.
В результате список протестированных моделей имеет следующий вид:
Используемые версии NVMe-драйверов:
⇡#Производительность последовательного чтения и записи
Быстродействие Crucial P1 при линейных нагрузках выдаёт в нём близкого родственника Intel SSD 660p. И это неудивительно: эти накопители основываются на одинаковых контроллерах и оба используют флеш-память типа QLC 3D NAND. Получается, что Crucial P1 – типичное бюджетное решение, совершенно не претендующее на установление рекордов.
Но на фоне дешёвых NVMe-накопителей класса Kingston A1000 рассматриваемый Crucial выглядит явно лучше. Правда, тот факт, что P1 работает через четыре линии PCI Express 3.0, ему совершенно не помогает. Линейные скорости оказываются значительно ниже пропускной способности интерфейса, поэтому использовать Crucial P1 вполне возможно и в M.2-слотах с подведёнными двумя линиями PCI Express 3.0 – потери в производительности от этого будут минимальными.
⇡#Производительность произвольного чтения
Скорость случайного чтения – откровенно слабое место Crucial P1. При отсутствии очереди запросов он оказывается даже заметно медленнее, чем родственный Intel SSD 660p, а уж от большинства остальных накопителей отстаёт и подавно. Это напрямую связано с особенностями QLC 3D NAND: латентности, возникающие при обращении к данным, в случае четырёхбитовой памяти выше, чем в случае TLC-памяти. И этот фактор не компенсируется даже тем, что в распоряжении Crucial P1 есть полноценный DRAM-буфер. Его обходят даже безбуферные модели с технологией HMB.
⇡#Производительность произвольной записи
Не слишком здорово обстоит дело и при случайной записи, особенно если она выполняется без какой-либо конвейеризации. Тот же Intel SSD 660p имеет явно лучшие оптимизации микропрограммы под простую нагрузку, не формирующую очередь запросов. Однако с появлением такой очереди показатели Crucial P1 улучшаются и его производительность дотягивается до результатов NVMe SSD среднего уровня. Помогает ему в этом достаточно вместительный SLC-кеш, который в накопителях на платформах Silicon Motion работает по более эффективному динамическому принципу.
⇡#Производительность при смешанной нагрузке
При работе со смешанной нагрузкой Crucial P1 смотрится сравнительно неплохо для бюджетной модели. Накопители, основанные на контроллерах Silicon Motion, всегда достойно проявляют себя в таких сценариях, и основанная на QLC 3D NAND модель исключением не оказалась. Конечно, с лидерами Crucial P1 соревноваться не может, но на фоне дешёвых NVMe SSD он выглядит вполне достойно. И это – хороший знак, поскольку большинство реальных нагрузок, возникающих в современных многозадачных операционных системах, имеют именно смешанный характер.
⇡#Производительность в CrystalDiskMark
Результаты в CrystalDiskMark позволяют воочию убедиться в том, что Crucial P1 и Intel SSD 660p являются родственниками с близкой производительностью. Однако разница между ними всё же есть. В то время как Intel SSD 660p лучше оптимизирован под операции с низкой глубиной очереди запросов, Crucial P1, напротив, лучше работает при конвейеризации запросов.
Также стоит обратить внимание и на то, что оба накопителя на базе контроллера SM2263EN и QLC 3D NAND показывают подозрительно высокую скорость чтения 4-Кбайт блоков. Таким образом в них проявляется особая реализация SLC-кеширования. Накопители на контроллере SM2263EN сбрасывают SLC-кеш в QLC-память лишь по прошествии нескольких секунд бездействия накопителя. Поэтому CrystalDiskMark, который сначала записывает тестовый файл, а потом тут же читает из него данные, волей-неволей показывает скорость чтения из SLC-кеша, а не из основного массива QLC-памяти. И это значит, что приведённые на скриншоте числа абсолютно нерелевантны, хоть и очень красиво выглядят.
⇡#Производительность в PCMark 8 Storage Benchmark 2.0
Благодаря неплохой производительности при смешанных операциях и интеллектуальной технологии SLC-кеширования Crucial P1 может похвастать вполне достойным интегральным результатом в тесте PCMark 2.0, где измеряется производительность дисковых подсистем в реальных приложениях. Согласно заключению этого бенчмарка, P1 следует признать вполне привлекательным вариантом среди недорогих NVMe SSD, поскольку и Kingston A1000, и безбуферные модели Transcend и ADATA от потребительского QLC-решения компании Micron отстают. Впрочем, то же самое можно сказать и в отношении Intel SSD 660p, который по большому счёту почти не отличается от рассматриваемого в этом обзоре предложения.
Интегральный результат PCMark 8 нужно дополнить и показателями производительности, выдаваемыми накопителями при прохождении отдельных тестовых трасс, которые моделируют различные варианты реальной нагрузки. Дело в том, что при разноплановой нагрузке флеш-накопители могут вести себя каким-либо особым образом.
Производительность при реальной нагрузке
С файловыми операциями внутри накопителя Crucial P1 справляется неважно. Почему так, понять несложно. Просто вспомните о том, что массив QLC 3D NAND отличается сравнительно низкими скоростями чтения, особенно если речь идёт о произвольном доступе к данным (то есть об операциях с файлами небольшого размера).
Впрочем, всё в мире относительно. И эпитет «неважно» в данном случае употреблён при сопоставлении скоростных показателей Crucial P1 с тем, как работают другие NVMe-накопители, причём в большинстве своём с TLC-памятью. Но если сравнивать его скорость со скоростью SATA SSD, то предложение Micron выйдет однозначным лидером. За счёт более быстрого интерфейса при работе с файлами Crucial P1 заметно обойдёт даже Samsung 860 EVO, не говоря уже о менее проворных SATA-решениях.
Не слишком оптимистичные результаты характерны для Crucial P1 и при запуске с него программ или игр. В таких сценариях он примерно вдвое медленнее, чем образцово-показательный Samsung 970 EVO Plus. Но это не даёт нам права говорить, что P1 плохо подходит на роль системного накопителя, потому что он всё равно лучше, чем SATA SSD. В наших тестовых сценариях про загрузку приложений и игр любой из SATA-накопителей оказывается медленнее на 15-25 %. Иными словами, с точки зрения производительности Crucial P1 занимает промежуточное положение между добротными накопителями с интерфейсом NVMe и SATA.
В целом у современных накопителей обработка TRIM не вызывает никаких проблем, но с автономной сборкой мусора, способной восстанавливать производительность после нагрузок без помощи со стороны операционной системы, дело обстоит по-разному. Для проверки мы обычно проводим простой эксперимент: после заполнения SSD данными и их последующего удаления с выключенной поддержкой TRIM мы выжидаем 15 минут, в течение которых SSD может попытаться автономно восстановиться за счёт сборки мусора, и замеряем быстродействие. Затем на накопитель принудительно подаётся команда TRIM — и скорость измеряется ещё раз, что позволяет убедиться в способности SSD с помощью TRIM полностью восстанавливать свою паспортную скорость.
В этом тесте Crucial P1 показывает сильные отличия от Intel SSD 660p и многих накопителей на TLC-памяти. Дело в том, что он способен восстанавливать производительность не только после подачи команды TRIM. В какой-то мере в нём работает и автономная сборка мусора. За время простоя накопителю удаётся освободить небольшую часть SLC-кеша — объёмом 5,5 Гбайт, поэтому даже в средах, где TRIM не поддерживается, этот накопитель на небольших объёмах данных сможет предложить не удручающую скорость записи, свойственную QLC-памяти, а более высокую производительность, свойственную ускоренному SLC-режиму. Такое поведение для недорогих накопителей с интерфейсом NVMe нетипично.
Ещё один важный момент, связанный с TRIM, касается того, насколько большую нагрузку на контроллер вызывает обработка этой команды. Дело в том, что происходит это не так уже и незаметно для пользователя. Когда операционная система передаёт накопителю информацию о том, что какие-то сектора выводятся файловой системой из обращения, контроллер SSD должен консолидировать эти сектора и очистить освобождающиеся страницы флеш-памяти для выполнения будущих операций. Такая перегруппировка требует перезаписи и очистки областей памяти, и это не только занимает заметное время, но и серьёзно нагружает контроллер работой.
В результате после удаления с диска больших объёмов данных владельцы SSD часто сталкиваются с эффектом временного замедления или даже с «фризами» накопителя. На практике это может вызвать серьёзный дискомфорт, ведь никто не ожидает, что SSD, основным достоинством которого является моментальная реакция на внешние воздействия, будет замирать на несколько секунд. Поэтому мы добавили в методику дополнительное исследование, которое позволяет отслеживать, насколько незаметно для пользователя тот или иной SSD обслуживает команды TRIM. Способ проверки очень прост: сразу после удаления крупного файла — объёмом 32 Гбайт — мы проверяем, как накопитель справляется с операциями произвольного чтения данных, контролируя как скорость чтения, так и время ожидания, которое проходит с момента каждого запроса данных до ответа накопителя.
После удаления файла объёмом 32 Гбайт накопителю требуется около пяти секунд, чтобы привести себя в порядок. В течение этого срока он практически полностью перестаёт реагировать на внешние воздействия. Время отклика вырастает на два порядка, а производительность падает до нуля даже при чтении. Это может послужить ещё одним подтверждением тезиса о том, что SSD класса Crucial P1 будет не слишком хорош в роли активно используемого рабочего диска, на которой, как правило, ложится нагрузка, состоящая из разнородных операций.
⇡#Проверка температурного режима
Как следует из опыта, NVMe-накопители с невысоким уровнем производительности греются заметно меньше, чем их высокоскоростные сородичи. И Crucial P1 – не исключение, он демонстрирует вполне приемлемые температуры при любой нагрузке. Беспокоиться о том, что такой накопитель может перегреваться во время работы, явно не из-за чего.
Для практического подтверждения мы последили за температурным режимом при нагрузке на тестовый накопитель последовательными операциями с глубиной очереди запросов в 4 команды. Измерения проводились на открытом стенде, какой-либо дополнительный обдув SSD воздушным потоком не производился.
Во время чтения температурный режим Crucial P1 опасений не вызывает даже близко. Накопитель разогревается максимум до 45-50 градусов, и эта температура далека от критического значения, которое для данного SSD установлено в 80 градусов. Любопытно, что похожий по начинке Intel SSD 660p в тех же условиях достигал несколько более высоких температур.
При записи ситуация не сильно отличается от чтения. Разогреть накопитель нам удалось лишь до 65 градусов, и это значит, что никаких проявлений температурного троттлинга мы не увидели. Более того, как только у Crucial P1 заканчивается SLC-кеш и начинает выполняться запись в QLC-память, рост температуры полностью прекращается. И это закономерно, если вспомнить о том, какие при этом наблюдаются скоростные характеристики.
Несмотря на то, что в тестах производительности Crucial P1 не смог завоевать ни одного комплимента, право на жизнь он всё равно имеет. Но чтобы осознать это, рассматривать его нужно не со стороны производительности, а исходя из цены. Дело в том, что предложенный компанией Micron накопитель – один из самых доступных вариантов из всего многообразия предложений с интерфейсом NVMe. И именно в этом и можно найти неоспоримые аргументы в пользу данной модели.
Если коротко, то Crucial P1 можно охарактеризовать как NVMe SSD со стоимостью SATA, и это не будет преувеличением, поскольку его рекомендованная цена соответствует цене Samsung 860 EVO. При этом производительность Crucial P1 в целом выше, по крайней мере, если говорить о типовых сценариях использования, характерных для среднестатистических домашних или офисных ПК.
В чём же подвох, спросите вы? И к сожалению, быстро ответить на этот вопрос мы не сможем – перечислить все подводные камни Crucial P1 в двух словах не получится, их тут целый список.
Во-первых, этот SSD основывается на QLC 3D NAND – памяти с четырёхбитовыми ячейками, которая работает заметно медленнее привычной TLC-памяти. Поэтому в ряде ситуаций производительность Crucial P1 может оказаться заметно ниже ожидаемых значений. Например, для него характерна черепашья (и это не преувеличение!) скорость записи в основной массив памяти, которая проявляется при исчерпании свободного места в SLC-кеше. Также не слишком радуют и показатели быстродействия при мелкоблочных операциях чтения.
Во-вторых — опять-таки из-за того, что рассматриваемый накопитель основывается на QLC 3D NAND, — для него декларируется в разы более низкая выносливость по сравнению с показателями TLC-моделей. Это значит, что серьёзно рассматривать возможность приобретения Crucial P1 можно только с прицелом на определённые сценарии из разряда WORM (Write once, Read many), которые предполагают множественные операции чтения данных с не слишком высокой нагрузкой в виде записи. При интенсивных и постоянных перезаписях такой накопитель, скорее всего, проживёт недолго.
Ну и третий, и самый обидный недостаток заключается в том, что ценовая политика Micron в России серьёзно отличается от общемировой. У нас в стране Crucial P1 не только не является самым дешёвым NVMe SSD (это звание удерживает ADATA XPG SX6000 Lite, который мы постараемся протестировать в ближайшем будущем), но и легко переплёвывает по цене SATA-накопители класса Samsung 860 EVO. В результате существенная часть привлекательности Crucial P1 на отечественном рынке утрачена.
И пока не будет исправлен последний недостаток, российским потребителям придётся относиться к Crucial P1 как к не более чем ещё одному продукту из большой массы бюджетных NVMe-накопителей без каких-либо явных преимуществ. На фоне альтернатив он выделяется разве только своим благородным происхождением, но при этом основывается не на TLC-памяти, а использует QLC 3D NAND, которая многим наверняка покажется сомнительным вариантом. |
984,021 | Обзор смартфона Samsung Galaxy S10+: все это уже было в «Симпсонах» | Я уже описывал свои первые впечатления от всего набора новых Galaxy S – теперь пришла пора поговорить подробнее и конкретнее, непосредственно про главный флагман Samsung первой половины 2019 года – Galaxy S10+. Встроенные прямо в экран двойная фронтальная камера и сканер отпечатков пальцев, тройная тыльная камера с тройным же оптическим зумом, 6,4-дюймовый изогнутый OLED-дисплей, быстрая как проводная, так и беспроводная зарядка, свежайшая платформа Samsung Exynos 9820 Octa. Корейцы создали свой ответ и на iPhone Xs Max (для «обычного» iPhone Xs таким ответом стал Samsung Galaxy S10), и на Huawei Mate 20 Pro, и на Google Pixel 3 XL. Получилось ли у компании, после не самого внятного Galaxy S9, подтвердить свои амбиции производителя элитных гаджетов и продемонстрировать технологическое превосходство, как это было многие годы до?
Ключевые отличия версии S10+ от «обычного» S10: более крупный дисплей (6,4 дюйма против 6,1), двойная фронталка против одинарной, более крупная батарея (4100 мА·ч против 3400 мА·ч) при увеличенных же габаритах и массе, а также наличие керамической версии с объемом накопителя в 1 Тбайт и оперативной памяти в 12 Гбайт. У нас на тесте оказался стандартный, стеклянный S10+ цвета «перламутр» (белый с голубым отливом – подробнее про цвета ниже) c 8/128 Гбайт памяти. Промежуточной версии с 8/512 Гбайт в России не будет.
Третья версия, Samsung Galaxy S10e, смотрится своеобразной реакцией на iPhone Xr – предположительно, с теми же перспективами – дизайн попроще, двойная тыльная камера, экран не изогнутый. При этом S10e, в отличие от того же Xr, только выглядит более дешевым, чем S10/S10+, но не ощущается таковым. Основные достоинства серии (стеклянный корпус, AMOLED-дисплей, мощная платформа) при нем.
На этом закончим разговор о разных S10 – дальше речь пойдет исключительно о S10+.
|
Samsung Galaxy S10+ |
Samsung Galaxy Note9 |
Huawei Mate 20 Pro |
Apple iPhone Xs Max |
Google Pixel 3 XL
|
Дисплей |6,4 дюйма, Super AMOLED, 1440 × 3040, 522 ppi, емкостный мультитач
|6,4 дюйма, Super AMOLED, 1440 × 2960, 516 ppi, емкостный мультитач
|6,39 дюйма, OLED,
3120 × 1440 точек, 538 ppi, емкостный мультитач
|6,5 дюйма, Super AMOLED, 2688 × 1242, 458 ppi, емкостный мультитач, технология TrueTone
|6,3 дюйма, P-OLED, 2960 × 1440 точек, 523 ppi, емкостный мультитач
|
Защитное стекло |Corning Gorilla Glass 6
|Corning Gorilla Glass 5
|
Corning Gorilla Glass (версия неизвестна)
|Нет информации
|Corning Gorilla Glass 5
|
Процессор |Samsung Exynos 9820 Octa: восемь ядер (2 × Mongoose M4, частота 2,73 ГГц + 2 × Cortex-A75, частота 2,31 ГГц + 4 × Cortex-A55, частота 1,95 ГГц)
|Samsung Exynos 9810 Octa: восемь ядер (4 × Mongoose M3, частота 2,7 ГГц + 4 × Cortex-A55, частота 1,8 ГГц)
|HiSilicon Kirin 980: восемь ядер (2 × ARM Cortex A76, частота 2,6 ГГц + 2 × ARM Cortex A76, частота 1,92 ГГц + 4 × ARM Cortex A55, частота 1,8 ГГц); архитектура HiAI
|Apple A12 Bionic: шесть ядер (2 × Vortex + 4 × Tempest)
|Qualcomm Snapdragon 845: четыре ядра Kryo 385 Gold, частота 2,8 ГГц + четыре ядра Kryo 385 Silver, частота 1,7 ГГц
|
Графический контроллер |Mali-G76 MP12
|Mali-G72 MP18, 900 МГц
|ARM Mali-G76 MP10, 720 МГц
|Apple GPU (4 ядра)
|Adreno 630, 710 МГц
|
Оперативная память |8/12 Гбайт
|6/8 Гбайт
|6 Гбайт
|4 Гбайт
|4 Гбайт
|
Флеш-память |128/512/1024 Гбайт
|128/512 Гбайт
|128 Гбайт
|64/256/512 Гбайт
|64/128 Гбайт
|
Поддержка карт памяти |Есть
|Есть
|Да (только Huawei nanoSD)
|Нет
|Нет
|
Разъемы |USB Type-C, мини-джек 3,5 мм
|USB Type-C, мини-джек 3,5 мм
|USB Type-C
|Lightning
|USB Type-C
|
SIM-карты |Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Одна nano-SIM и одна e-SIM
|Одна nano-SIM
|
Сотовая связь 2G |GSM 850/900/1800/1900 МГц
|GSM 850 / 900/1800/1900 МГц
|GSM 850 / 900/1800/1900 МГц
|GSM 850 / 900/1800/1900 МГц
|GSM 850 / 900/1800/1900 МГц
|
Сотовая связь 3G |HSDPA 850/900/1700/ 1900/2100 МГц
|HSDPA 850/900/1700/ 1900/2100 МГц
|HSDPA 800/850/900/1700/ 1900/2100 МГц
|HSDPA 850/900/1700/ 1900/2100 МГц
|HSDPA 850/900/1700/ 1900/2100 МГц CDMA 2000
|
Сотовая связь 4G |LTE Cat. 20 (2000/150 Мбит/с), диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 13, 17, 18, 19, 20, 25, 26, 28, 32, 38, 39, 40, 41, 66
|LTE Cat. 18 (1200/200 Мбит/с), диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 13, 17, 18, 19, 20, 25, 26, 28, 32, 38, 39, 40, 41, 66
|LTE Cat. 21 (до 1400 Мбит/с), диапазоны 1, 2, 3, 4, 5, 6, 7, 8, 9, 12, 17, 18, 19, 20, 26, 28, 34, 38, 39, 40
|LTE Cat. 16 (1024 Мбит/с): диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 13, 14, 17, 18, 19, 20, 25, 26, 29, 30, 32, 34, 38, 39, 40, 41, 66, 71
|LTE Cat. 16 (1024 Мбит/с): 1, 2, 3, 4, 5, 7, 8, 12, 13, 17, 18, 19, 20, 25, 26, 28, 29, 32, 38, 39, 40, 41, 42, 46, 66, 71
|
Wi-Fi |802.11a/b/g/n/ac/ax
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/aс
|802.11a/b/g/n/ac
|
Bluetooth |5.0
|5.0
|5.0
|5.0
|5.0
|
NFC |Есть
|Есть
|Есть
|Есть (Apple Pay)
|Есть
|
Навигация |GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo, QZSS
|GPS, A-GPS, ГЛОНАСС, Galileo, QZSS
|GPS, A-GPS, ГЛОНАСС, Galileo
|
Датчики |Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), барометр, датчик сердечного ритма, давления
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), барометр, датчик сердечного ритма, давления
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), ИК-датчик, Face ID
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), барометр
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), барометр
|
Сканер отпечатков пальцев |Есть, на экране
|Есть
|Есть, на экране
|Нет
|Есть
|
Основная камера |Тройной модуль: 12 Мп с переменной диафрагмой ƒ/1,5/2,4 + 12 Мп, ƒ/2,4 + 16 Мп, ƒ/2,2, фазовый автофокус, оптическая стабилизация в основном и телемодулях, светодиодная вспышка
|Двойной модуль: 12 Мп с переменной диафрагмой ƒ/1,5/2,4 + 12 Мп, ƒ/2,4, гибридный автофокус, оптическая стабилизация в обеих камерах, светодиодная вспышка
|Тройной модуль, 40 + 20 + 8 Мп, ƒ/1,8 + ƒ/2,2 + ƒ/2,4, гибридный автофокус, оптическая стабилизация, двойная светодиодная вспышка
|Двойной модуль: 12 Мп, ƒ/1,8 + 12 Мп, ƒ/2,4, автофокус, четырехдиодная светодиодная вспышка, оптический стабилизатор в обеих камерах
|12,2 Мп, ƒ/1,8, фазовый автофокус, двойная светодиодная вспышка, оптическая стабилизация
|
Фронтальная камера |Двойной модуль: 10 + 8 Мп, ƒ/1,9 + ƒ/2,2, автофокус с основной камерой
|8 Мп, ƒ/1,7, автофокус, без вспышки
|24 Мп, ƒ/2,0, фиксированный фокус, без вспышки
|7 Мп, ƒ/2,2, без автофокуса, без вспышки
|Двойной модуль: 8 + 8 Мп, ƒ/1,8 + ƒ/2,2, автофокус с основной камерой
|
Питание |Несъемный аккумулятор: 15,58 Вт·ч (4100 мА·ч, 3,8 В)
|Несъемный аккумулятор: 15,2 Вт·ч (4000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 15,96 Вт·ч (4200 мА·ч, 3,8 В)
|Несъемный аккумулятор: 12,06 Вт⋅ч (3174 мА·ч, 3,8 В)
|Несъемный аккумулятор на 13,03 Вт·ч (3430 мА·ч, 3,8 В)
|
Размер |157,6 × 74,1 × 7,8 мм
|161,9 × 76,4 × 8,8 мм
|157,8 × 72,3 × 8,6 мм
|157,5 × 77,4 × 7,7 мм
|158 × 76,7 × 7,9 мм
|
Масса |175 граммов
|201 грамм
|189 граммов
|208 граммов
|184 грамма
|
Защита корпуса |IP68
|IP68
|IP68
|IP68
|IP68
|
Операционная система |Android 9.0 Pie, собственная оболочка
|Android 8.1 Oreo, собственная оболочка
|Android 9.0 Pie, оболочка EMUI
|iOS 12
|Android 9.0 Pie
|
Актуальная цена |76 990 рублей за версию 8/128 Гбайт, 124 990 рублей за версию 12/1024 Гбайт
|69 990 рублей за версию 6/128 Гбайт, 89 990 рублей за версию 8/512 Гбайт
|69 990 рублей
|от 85 200 рублей до 106 990 рублей
|65 490 рублей за версию на 64 Гбайт памяти, 73 490 рублей за версию на 128 Гбайт
**Дизайн, эргономичность и программное обеспечение**
Про техническую оригинальность Samsung Galaxy S10+ мы обязательно поговорим ниже, тут очень много интересных и спорных моментов – но про оригинальность внешнюю сказать нечего, корейцы очень последовательно придерживаются своего стиля и делают узнаваемые и одновременно непохожие на других смартфоны. Как минимум во флагманском сегменте.
Времена, когда дизайнеров Samsung обвиняли в том, что они «обводят iPhone по контуру» давно позади. Скорее наоборот, корейцы последние два года нарочито отвергали опыт Apple – словно из духа противоречия. «Вырез» так и не появился в смартфонах Galaxy, и, видимо, уже никогда не появится, маятник моды качнулся в обратную сторону от этого дизайнерского решения, за которое многие столь охотно и порой бездумно ухватились.
Samsung Galaxy S10+ все равно гонится за доведенным до предела отсутствием рамок, но использует для этого метод, опробованный ранее корейцами в модели Galaxy A8 и Huawei – в моделях nova 4 и Honor View 20. Речь о фронтальной камере, встроенной прямо в экран, а еще точнее – в угол экрана. Так, чтобы она минимально отвлекала от центральной части картинки и отъедала минимум пространства у строки состояния. Решение тоже далеко не бесспорное – пусть мне нравится и больше «монобровей» и «капелек». По крайней мере, пока не смотришь видео, сдвоенные объективы в углу экрана не особенно бросаются в глаза. Но стоит включить видео и растянуть его на весь экран формата 19:9, как фронталка сразу становится бельмом в глазу. Увы, пока идеального сочетания безрамочности с предельным же удобством для пользователя не существует – все меры смотрятся в той или иной степени половинчатыми: и слайдеры, и вынос дисплея на заднюю панель (чтобы от фронталки вообще можно было отказаться), и вырезы, и отверстия в экране.
Добавлю, что сдвоенная камера S10+ выполняет и функцию индикатора – по ее периметру пробегает белая полоса при разблокировании экрана при помощи распознавания лица.
В остальном корпус Galaxy S10+ сохраняет преемственность по отношению к S8/S9 и Note9 – дисплей изгибается по краям, упираясь в тонкие ребра из полированного металла. Задняя панель, выполненная либо из стекла, либо из керамики, ведет себя точно так же. Углы скруглены минимально, от чего создается впечатление более «квадратного», чем обычно у конкурентов, корпуса. Смотрится Galaxy S10+ в любом случае очень солидно и — да, можно смело применить это слово — красиво. Последнее, правда, уже субъективная категория, которая в данном случае вдвойне зависит от отношения к торчащей посреди экрана фронтальной камере.
И лицевая, и задняя панель прикрыты закаленным стеклом Gorilla Glass 6 – и это хорошая новость. Сложно сказать, как стекло реагирует на падения с высоты (не думаю, что хуже, чем Gorilla Glass 5), но повышенной чувствительностью к микроцарапинам, в отличие от пятой версии, точно не обладает. За время двухнедельного теста, в течение которого Galaxy S10+ использовался в качестве основного смартфона, никаких «засечек» ни на экране, ни на задней панели не появилось. В комплекте при этом нет никакого чехла, что непривычно — сегодня прозрачные силиконовые «бамперы» добавляют в комплект своих устройств очень многие.
Габариты Samsung Galaxy S10+ составляют 157,6 × 74,1 × 7,8 мм. Масса – 175 граммов. Выигрыш у Note9 есть и по всем трем габаритным параметрам, и по весу. Компактным гаджет с 6,4-дюймовым дисплеем не назовет даже Бобан Марьянович, пользоваться им одной рукой обычному человеку невозможно. Но изящества S10+ определенно не лишен.
Цвета, в которых предлагается стеклянный S10+ (и S10), носят обязательные сегодня названия. В России смартфон будет представлен в расцветках «оникс», «аквамарин» и «перламутр». И тут можно было бы поиронизировать над традицией называть простое сложным, но корпус Galaxy S10+ действительно обладает сложной структурой цвета – он переливается в зависимости от освещения. В частности, представленный в этом обзоре «перламутровый» S10+ при одном свете и угле обзора выглядит абсолютно белым, а при другом – нежно-голубым.
Функциональные элементы обычны для всех последних флагманских Galaxy: помимо клавиш включения и регулировки громкости на корпусе также предусмотрена клавиша активации фирменного помощника Bixby. На презентации смартфона сообщали, что на эту клавишу можно повесить какую-нибудь другую функцию – на деле эта настройка в меню оказалась неактивна и, с учетом того, что Bixby в России на сегодняшний день по факту не работает, клавиша остается бесполезной. Помимо этого, здесь сохранен 3,5-мм разъем – еще один залп в сторону Apple. И это не помешало Samsung в очередной раз заявить о классе пыле- и влагозащиты IP68.
Ахиллесовой пятой Samsung Galaxy S8 и, в меньшей степени, Galaxy S9, был тыльный сканер отпечатков пальцев, очень неудачно расположенный, – слишком легко его было спутать на ощупь с объективом камеры. В результате объектив был перманентно заляпан, протирать смартфон приходилось слишком часто. В S10/S10+ проблема решена радикальным способом – сканер отпечатков переехал под экран, используется ультразвуковой сенсор. Подобное мы уже видели на многочисленных китайских примерах – от Vivo NEX до Xiaomi Mi MIX 3. В смартфоне Samsung можно было рассчитывать на более высокий уровень исполнения – все ранее встреченные ультразвуковые сенсоры отличались невысокой скоростью и повышенным, в сравнении с классическими емкостными, процентом отказов при распознавании. Но, увы, Galaxy S10+ демонстрирует то же самое поведение. Необходимо часто перезаписывать отпечаток и прикладывать палец для успешного срабатывания по несколько раз – не всегда, но слишком часто.
Также довольно быстро пошли слухи, что сканер, мол, заметен при выключенном экране и даже мешается при включенном. Ничего подобного я заметить не смог, как ни пытался. У меня осталась единственная претензия к сканеру: скорость и точность его срабатывания недостаточно высоки.
Продублировать сканер можно системой распознавания лица, но сканера сетчатки глаза Galaxy S10/S10+ лишился – нужный для этого датчик просто некуда ставить при новой компоновке передней панели. Также, само собой, нет места и для датчика глубины на манер iPhone или даже ИК-подсветки, как в Xiaomi Mi 8/Mi MIX 3. Только фронталка, которой при недостаточном освещении помогает разгорающийся до максимума яркости дисплей. Распознает лицо S10+ довольно быстро и стабильно, но метод это не очень надежный, не рекомендую на него полагаться.
Samsung в очередной раз переделала и переименовала свою оболочку для смартфона – теперь она носит имя One UI и надета поверх Android 9.0 Pie. О неудобной и перегруженной TouchWiz не напоминает уже почти ничего – по сравнению с Samsung Experience изменена даже характерная для многих поколений Galaxy цветовая гамма и перерисованы абсолютно все иконки. One UI выглядит чуть мультяшно, но, наконец-то, абсолютно актуально. Отличия от «чистого» Android в основном косметические – логика работы примерно та же, просто значительно больше настроек, базовые приложения заменены фирменными, а левый экран занят панелью рекомендаций Bixby, а не Google Assistant. К последней есть претензии – первые ее экраны посвящены в основном не новостям и полезной информации, а разным рекомендациям со стороны Samsung.
Как и в Samsung Galaxy Note9, есть офлайн-поиск одновременно и по установленным на смартфон приложениям, и в магазине Google Play (и Galaxy App), функция клонирования приложений и обязательная для всех изогнутых гаджетов боковая панель, вызываемая смахиванием от боковой грани. На месте и функция Samsung Dex, с помощью которой смартфон можно подключать к монитору и использовать в качестве своеобразного ПК.
Samsung, само собой, продолжает ставить на свои смартфоны фирменные AMOLED-дисплеи. В данном случае матрица практически не отличается от той, что использовалась в Galaxy Note9, – изогнутый экран, диагональ 6,4 дюйма. Но изменился формат – 19:9 вместо 18:9 и, соответственно, разрешение – 3040 × 1440 точек. Плотность пикселей – 522 ppi. В принципе, это избыточная величина, поэтому по умолчанию дисплей работает с Full HD-разрешением, переходя на более высокую плотность только в игровом режиме и при просмотре видео. Впрочем, в любой момент можно поменять разрешение вручную – вдруг вы
*видите *пиксели?
Помимо того, что стекло устойчиво к появлению микроцарапин, на нем очень хорошее олеофобное покрытие – на экране не остается слишком уж много отпечатков.
А вот к сенсорному покрытию у меня возникли серьезные претензии. Оно слишком чувствительное, что приводит не только к множеству паразитных нажатий на боковую поверхность (что для изогнутых смартфонов вообще не редкость), но и к постоянному срабатыванию сенсора в кармане. Смартфон регулярно пытается кому-то дозвониться, открывает службу экстренных вызовов и так далее – и сделать с этим ничего нельзя. Это не только раздражает и может привести к лишним расходам (если телефон дозвонится кому-то из роуминга, например), но и быстрее сажает батарейку. Самое забавное (но и неприятное), что при этом в настройках есть специальные пункты «защита от случайного касания» (была включена) и «повышение чувствительности экрана» (была выключена).
Режим Always-On Display активен, его можно, как и в Note9, настраивать предельно подробно. При этом смартфон реагирует, если его взять в руки, – он включает экран, показывает время и уведомления.
В настройках дисплея можно менять размер шрифтов, масштаб, фильтр синего и прочие базовые вещи, а также цветопередачу. Причем настройки последнего параметра изменились – «адаптивный», «Фильм AMOLED» и «Фото AMOLED» исчезли, вместо них есть только «насыщенный» (с возможностью менять баланс белого и вручную настраивать три главных цвета) и «естественный». По сути они означают цветовой охват в сочетании с цветовой температурой – возможность видеть картинку максимально приближенной к оригиналу или более яркой, броской и полноцветной, но менее естественной. Для просмотра видео с поддержкой HDR10+ (заявленной в характеристиках) рекомендуется использовать именно режим «насыщенные цвета», при котором достигается пик яркости.
Предельный измеренный уровень яркости при выставленном вручную показателе на максимум составил 392 кд/м
2 – примерно как на Note9 (почти не сомневаюсь в использовании той же матрицы). Это ниже, чем в iPhone Xs Max, но следует помнить, что у Apple работает неотключаемая автоматическая подстройка яркости. При активации автоматической подстройки на S10+ пиковая яркость может достигать уже 800 кд/м 2 в соответствующих условиях. Так что в этом плане экран S10+ не уступает никому.
В режиме цветопередачи «насыщенные цвета» Samsung Galaxy S10+ использует цветовую гамму, примерно соответствующую стандарту DCI-P3. При этом точность цветопередачи сохраняется на достаточно высоком уровне. Средняя гамма составляет 2,05, цветовая температура слегка повышена (в среднем – 7 300 К), среднее отклонение DeltaE по расширенной палитре Color Checker (оттенки серого + широкий набор цветовых оттенков) составляет 5,64 (при норме 3 и эталонном значении 2).
В режиме цветопередачи «естественные цвета» цветовой охват приближен к sRGB – и картинка полностью соответствует заявленной «естественности», хотя и не эталонна в этом плане. Гамма составляет 2,04, среднее отклонение Delta E по шкале Color Checker — 3,20. Это близко к норме, но немного недотягивает – а цветовая температура минимально превышает эталонную в 6 500 К. Назвать настройку дисплея S10+ идеальной я не могу, но это все равно элитный уровень, вполне соответствующий классу устройства.
Samsung Galaxy S10+ ожидаемо качественно звучит – на уровне того же Note9. Внешние динамики стереофонические – один направлен вправо/вниз (расположен на нижнем торце), второй – разговорный – находится над дисплеем. Они громкие, выдают неожиданно насыщенный звук. Слушать видео с Youtube или даже посмотреть клип-другой не зазорно. Фильмы и сериалы с такой озвучкой все-таки лучше не смотреть – не стоит проявлять неуважение к их создателям.
Звук, который выводится на наушники, хорош – есть и солидный запас громкости, и нормальная детализация, и стабильность на всем диапазоне частот. Это относится как к проводному подключению (да, тут есть мини-джек и комплектные наушники AKG, которые подключаются как раз по аналоговому интерфейсу), и к беспроводному с поддержкой aptX и aptX HD.
Вместе со смартфоном удалось попробовать и беспроводные наушники Samsung Galaxy Buds, которые не идут в комплекте, но подразумеваются, как полноценный ответ Apple AirPods. Это повседневная гарнитура с минималистичным дизайном, идеально подходящая как раз для использования с Galaxy S10. Она спрятана в аккуратный футляр-«камешек», с помощью которого можно два вставных наушника не только хранить, но и подзаряжать. Первое «знакомство» Buds и Galaxy S10 выполняется в стиле, максимально похожем на предложенный Apple. Футляр с наушниками внутри достаточно положить на смартфон – и он сразу их «найдет» и предложит перейти к интерфейсу Galaxy Wearables для дальнейшей настройки.
Но Samsung пошла дальше – Galaxy Buds можно и заряжать при помощи смартфона, без использования дополнительных приспособлений. Смартфон умеет не только заряжаться без проводов, но и отдавать заряд, а Buds, в свою очередь, принимают его с благодарностью. Это уже было в «Симпсонах» – точнее, было в Huawei Mate 20 Pro, но тогда Huawei, напомню, не успела подготовить версию своих Freebuds с поддержкой беспроводной зарядки, поэтому функция фактически пропала втуне.
Сами по себе Galaxy Buds – вполне обычные современные беспроводные «затычки» и по звучанию, и по времени работы: на одном заряде наушники должны проработать 5-6 часов, заряжаются на 1,7 часа работы за 15 минут прямо в чехле; в общей сложности чехол обеспечивает в автономном режиме до семи дополнительных часов работы. Каждый наушник оснащен микрофоном – они не обеспечивают активного шумоподавления, но позволяют разговаривать по телефону, не вынимая их из ушей. Качество связи, впрочем, довольно среднее.
Очень посредственно работает и Bluetooth-модуль – в движении связь со смартфоном регулярно сбоит, звук прерывается, что очень раздражает. Это не достигает масштабов, которые мы видели в Huawei Freebuds, где перебои были каждый раз, стоило выйти с ними на улицу (а не просто слушать, сидя в общественном транспорте), но все равно слишком часто, чтобы проигнорировать проблему. Остается надеяться, что Samsung как-то решит ее в грядущих прошивках. Из плюсов относительно Apple AirPods отмечу то, как хорошо Galaxy Buds сидят в ушах, – достигается и высокий уровень пассивной шумоизоляции, и нет страха потерять наушник, выпавший внезапно из уха. Не выпадет, можно не переживать.
**«Железо» и производительность**
Samsung Galaxy S10 (всех версий) по оснащению аппаратной платформой делится на два варианта – для Северной Америки и для всего мира. Первая, которую мы не увидим (за исключением тех, кто купит смартфон в США и Канаде), снабжена флагманской платформой Qualcomm – Snapdragon 855. Вторая – с платформой собственного авторства, Samsung Exynos 9820 Octa.
Занятно, что, несмотря на первенство в деле производства полупроводников (Qualcomm печатает платы на мощностях Samsung), корейцы единственные из крупных игроков (кроме MediaTek), кто в этом поколении не выпустили свою платформу на 7-нм технологическом процессе. Huawei, Qualcomm и Apple сделали это, а Exynos 9820 Octa выполнена по 8-нм технологии LPP (Low Power Plus) FinFET. Не думаю, впрочем, что это в данном случае критично, о каком-то серьезном технологическом отставании говорить не приходится.
Новая флагманская платформа Samsung состоит из восьми вычислительных ядер, выстроенных по прихотливой, как теперь принято, схеме «2 + 2 + 4»: два кастомизированных ядра Samsung четвертого поколения Mongoose M4 тактовой частотой 2,73 ГГц рассчитаны на самые ресурсоемкие задачи, два ядра ARM Cortex-A75 тактовой частотой 2,31 ГГц среднего уровня и четыре ARM Cortex-A55 частотой 1,95 ГГц для задач, не требующих чрезмерного «напряжения мышц». За графику отвечает подсистема ARM Mali-G76 MP12 – слегка разогнанная версия ускорителя, который мы видели на платформе HiSilicon Kirin 980.
Как и платформа, которая используется во всех старших Huawei, Exynos 9820 Octa в итоге не блещет производительностью в играх, заметно отставая в этом отношении и от Apple A12 Bionic, и от Snapdragon 855. А с прошлогодней (а де-юре – позапрошлогодней) Snapdragon 845 они скорее идут ноздря в ноздрю. Впрочем, лучше любых слов говорят результаты бенчмарков. Проблем в любых современных играх, запускаемых на Samsung Galaxy S10+ (равно как и S10 с S10e), у вас не будет, но говорить о запасе на несколько лет вперед мы не решимся. В практическом плане помогает играть на смартфоне специальный игровой режим, способный отключать ненужные фоновые приложения, и специальная оптимизация системы под игры, сделанные на движке Unity.
В Samsung Exynos 9820 Octa предусмотрен обязательный сегодня модуль для нейросетевых вычислений (так называемый NPU, Neural Processing Unit), он должен улучшить этот аспект работы процессора в семь раз в сравнении с 9810 Octa. И да, вероятно, улучшает, но бенчмарк Ludashi AI Mark, который мы используем в последнее время для оценки способностей «искусственного интеллекта» смартфона, демонстрирует отставание и от Kirin 980, и от Snapdragon 955 на порядок. Без шуток, разница примерно в 10 раз.
В Samsung Galaxy S10+ применена современная система охлаждения с использованием паровой камеры. Note9, напомню, испытывал серьезные проблемы с троттлингом, опуская производительность системы в энергозатратных приложениях до 63-64% от максимума. S10+ действует куда более раскрепощенно – в бенчмарке CPU Throttling Test удерживается уровень в 79% от максимума. Он тоже далеко не предельный, но падение уже не критично. Средняя производительность за 15-минутный сеанс в бенчмарке – 129,6 GIPS. Показатель для флагманского смартфона средний, но прирост относительно Note9, в свою очередь, очевидный.
Самый смак Samsung Exynos S10+ по аппаратной начинке – в наличии версии с 12 Гбайт оперативной памяти и накопителем на… 1 Тбайт. Да, она стоит 125 тысяч рублей, но внушает уважение. А наиболее популярной, конечно, будет базовая версия S10/S10+, которая и побывала у нас на тестировании, – c 8 Гбайт оперативки и 128 Гбайт постоянной памяти. Можно, при желании, расширить ее объем с помощью карточки microSD, ведь второй слот для SIM-карты сделан гибридным.
⇡#
**Связь и беспроводные коммуникации**
В Samsung Galaxy S10+ – два слота для nano-SIM, один из них, как я уже упомянул выше, совмещен с разъемом для карты памяти. С обеих симок можно выходить в Сеть через LTE. Здесь установлен модем, способный работать с LTE 20-й категории, – теоретическая скорость скачивания данных достигает 2 Гбит/с, передачи – 150 Мбит/с. На сегодняшний день Galaxy S10 – быстрейший смартфон в том, что касается работы с 4G-сетями. Дальше – уже только 5G (версия Galaxy S10 5G уже тоже представлена, другое дело, что покрытие настолько мало, что смысла в самом гаджете в настоящий момент минимум).
Все необходимые беспроводные модули, за исключением ИК-порта, присутствуют: NFC (с поддержкой Samsung Pay), Bluetooth 5.0 (с LE и aptX; можно выводить сигнал сразу на два устройства), Wi-Fi 802.11a/b/g/n/ac/ax. Да-да, Samsung Galaxy S10+ дружит с Wi-Fi 6 и вдобавок должен в многолюдных местах с перегруженными сетями получать приоритетный доступ. По факту S10+ в местах с относительно слабым сигналом или большим количеством подключенных устройств не демонстрирует каких-то особенных навыков – например, в моей домашней сети, где в настоящий момент используется слабенький роутер, он, как, к примеру, и Honor View 20, продемонстрировал более слабые способности, чем многие конкуренты и даже недорогие смартфоны. Использовать S10+ как репитер на манер Note9 или Note8 возможности нет.
Навигационный модуль работает с основными системами: GPS (в том числе A-GPS), ГЛОНАСС, BeiDou, Galileo. И делает это быстро, без сбоев и качественно.
Samsung Galaxy S10+ стал очередным уже смартфоном с тройным модулем тыльной камеры. Вместе с основной камерой, взятой, очевидно, непосредственно у S9 и Note9 (12 мегапикселей, переменная диафрагма ƒ/1,5-2,4, угол обзора 77 градусов, размер пикселя – 1,4 мкм) работают две дополнительные: 12-мегапиксельная, дающая двукратный оптический зум (объектив с относительным отверстием ƒ/2,4, угол обзора 45 градусов, размер пикселя – 1,0 мкм), и 16-мегапиксельная, дающая более широкий угол обзора (123 градуса, рекорд среди мобильных камер в настоящий момент, объектив с относительным отверстием ƒ/2,2). В 35-миллиметровом эквиваленте диапазон доступных фокусных расстояний составляет от 12 до 52 мм. Можно говорить о полноценном 4,3-кратном оптическом зуме.
С основным и телефотомодулями работает система оптической стабилизации, автофокус – с основной Dual Pixel, с телефото – контрастная схема. Широкоугольная камера лишена и стабилизатора, и автофокуса – он всегда выставлен на бесконечность, что справедливо для режима, который здесь предлагается использовать исключительно для пейзажей и панорам. В Huawei Mate 20 Pro, напомню, широкоугольный модуль, обладающий минимальной дистанцией фокусировки в 3 см, также применяется для макросъемки.
Качество съемки, безусловно, зависит от использования/неиспользования зума или более широкого угла – все-таки в основной камере установлен и сенсор более крупных размеров, и более светосильная оптика (которая умеет менять светосилу, ориентируясь по обстоятельствам освещения). При этом по сравнению с прошлогодними флагманскими Galaxy подросло качество съемки с двукратным зумом в темноте (в первую очередь за счет применения стабилизированной оптики), а снимки, полученные на широкоугольный модуль, радуют не только углом охвата, но и весьма приличным качеством – особенно при нормальном освещении. При недостатке света ожидаемо проявляются шумы и падает детализация. При этом говорить о том, что снимать ночью с расширением угла обзора нельзя – слишком большое преувеличение. В Samsung Galaxy S10+ по-настоящему универсальная камера.
Отмечу хорошую работу автоматической коррекции пространственных искажений, которую можно включить в настройках, – эффект «рыбьего глаза» выражен незначительно, расширение угла обзора не приводит к устрашающим бочкообразным искажениям по краям, которые без работы программной коррекции неизбежны на оптике с фокусным расстоянием в 12 мм.
В Galaxy Note9 впервые для Samsung появилась технология «оптимизации кадра»: нейросетевые «мозги» смартфона стараются выявить сцену, которую вы планируете снять, и подрихтовать в зависимости от выясненных обстоятельств настройки – или предложить переключиться на более подходящий модуль. Теперь Galaxy умеет определять до 30 различных сцен. Делает это S10+, не в пример тем же смартфонам Huawei или Xiaomi (последним в меньшей степени – они работают более корректно), куда более аккуратно. Я бы не рекомендовал вам отключать этот режим, если только вы не хотите получить какой-то конкретный, заранее задуманный эффект. В последнем случае можно активировать «профессиональный» режим с ручными настройками (есть и возможность съемки в формате RAW). Хотя я рекомендую также отключать «оптимизацию кадра» при ночной съемке с большим количеством источников света в кадре – Galaxy S10+ чрезмерно активно применяет «звездный фильтр», рисуя из всех фонарей, ламп и автомобильных фар забавные звездочки. Такой вот корейский китч, порой уместный, но далеко не всегда.
Добавился и совершенно новый режим, также использующий нейросетевые вычисления, – «Живой фокус». В нем смартфон делает снимок с размытием фона и добавлением различных спецэффектов: например, может «завернуть» фон кругом или пустить «лучами» от центра или сохранить центральный объект цветным, лишив цвета фон. Результат спорный – мне, к примеру, эти способности S10+ показались очень интересными, а некоторым коллегам – откровенной дичью. Добавлю, что чисто портретным этот режим назвать нельзя – для него используется основная камера с эквивалентным фокусным расстоянием 26 мм, что приводит к неизбежным оптическим искажениям. При этом при активации двукратного зума включить «обычное» искусственное размытие фона нельзя – и это очень странно.
Третий способ применения искусственного интеллекта в Galaxy S10, о котором заявила Samsung, – так называемая «Рекомендация по снимкам» — выглядит на сегодняшний день самой бесполезной. При активации этой функции смартфон пытается опознать наиболее пригодную для съемки сцену в прямом эфире и сообщить об этом пользователю. То есть по факту решить за него, что надо снимать, а что нет. Делает смартфон это откровенно слабо – пока еще человек все-таки умнее машины в плане выбора сцен.
Интерфейс приложения камеры Samsung Galaxy S10 полностью переделан. Принцип тот же – переключение между режимами карусельное, при помощи горизонтального смахивания экранов. Но подписи режимов теперь снизу, а параметры съемки сверху. По центру мы видим иконки переключения между камерами с понятными пиктограммами, а справа – иконку, с помощью которой можно управлять искусственным интеллектом, оптимизацией кадра. Отдельно отмечу интеграцию съемки для Instagram✴ прямо в приложение камеры – очень удобно. Также в списке есть отдельный режим для съемки еды – в нем можно опять же размыть зону вокруг объекта съемки, выбрать цветовой баланс и повысить насыщенность цветов.
В целом по качеству фотосъемки Samsung Galaxy S10+ производит очень приятное впечатление – но занять привычную еще в недалеком прошлом однозначную верхнюю строчку у смартфона уже не получается, флагманы Huawei превосходят его в первую очередь в ночной съемке и детализации. По цветопередаче можно спорить – тут скорее дело вкуса, мне работа Samsung с цветом в поколении S10 кажется чуть более корректной. Также хочу отметить, что с контурной резкостью S10+, как и Note9, работает аккуратно, без перегибов. Динамический диапазон – примерно на уровне Mate 20 Pro, но порой флагман Samsung перебирает с HDR в контрастных снимках. Да, тени детализированы, но снимки не смотрятся естественно – следите за этим и в случае необходимости отключайте автосклейку.
Снимает видео Samsung Galaxy S10+ примерно на уровне Note9 (4K с частотой до 60 кадров в секунду и битрейтом 72 Мбит/с), но заметно улучшена работа стабилизатора (доступен для всех режимов съемки вплоть до 4К30p). Кликнув по специальной иконке, можно включить расширенный угол обзора (съемка ведется на широкоугольный модуль), слегка падает качество съемки (в темноте – не слегка), но S10+ превращается в аналог GoPro, и результат действительно впечатляет. Штатная стабилизация тоже работает на очень приличном уровне. Есть режим съемки сверхзамедленного видео (960 кадров в секунду), но с разрешением только до 720p и заметно более низкого качества – в этом плане Samsung по-прежнему уступает последним Sony Xperia. Но в целом по качеству видеозаписи Samsung Galaxy S10+ – полноценная элита примерно на одном уровне с iPhone Xs Max и Sony Xperia XZ3. Здесь корейский флагман превосходит Huawei.
Двойная фронтальная камера состоит из 10-мегапиксельного модуля с автофокусом и объективом светосилой
*ƒ*/1,9 и дополнительного (8 Мп, *ƒ*/2,2), который используется исключительно для сбора информации о фоне для его последующего размытия. Доступны все те же эффекты «живого фокуса», что и на основной камере, «бьютификатор» с многочисленными настройками, селфимоджи (в том числе и персональный, когда смартфон сканирует ваше лицо и создает на основе «увиденного» мультяшного персонажа) и различные маски.
Качество съемки для фронтальной камеры – очень высокое, хотя есть один странный момент. На «фронталке» так же, как и на главной камере, доступен расширенный угол обзора, который в первую очередь пригодится для съемки групповых селфи. Но для него используется не дополнительная камера, а вся область 10-мегапиксельного сенсора. В то время как для стандартных селфи применяется кроп – снимки делаются с разрешением 6,5 мегапикселя. Очень своеобразное решение.
Samsung Galaxy S10+ оснащен аккумулятором емкостью 15,58 Вт·ч (4100 мА·ч, 3,8 В). Это чуть больше, чем у Note9 с экраном той же диагонали, – следовательно, можно рассчитывать на спокойную работу в течение суток при обычной нагрузке и рабочего дня – при экстремальной. Каких-то чудес долгожительства S10+ не демонстрирует, но к концу дня разряжается не до нуля. В обязательном порядке таскаться с внешним аккумулятором необходимости нет – и это здорово.
В нашем стандартном тесте с воспроизведением HD-видео с максимальной яркостью экрана и включенными беспроводными соединениями Samsung Galaxy S10+ продемонстрировал замечательный результат, который превосходит все остальные, показанные флагманами текущего поколения (все они оснащены OLED-экранами), – более 16 часов.
Samsung Galaxy S10+ поддерживает как быструю проводную, так и быструю беспроводную зарядку. Проводная (5 В, 2 А) идет в комплекте – с ее помощью батарея полностью восполняется за полтора часа. За полчаса набирается примерно 41% заряда. Замерить скорость беспроводной зарядки возможности не было – в базовой комплектации она не предусмотрена. Но сообщается, что на полный заряд потребуется 3 часа. Про обратную беспроводную зарядку я уже рассказывал выше.
Samsung находится в 2019 году в непривычной для себя ситуации догоняющей компании. Apple уже вроде бы довольно давно обойден на повороте – корейцы уверенно задавали технологические тренды и выпускали самые совершенные Android-смартфоны, но тут пришла Huawei и нарушила привычный порядок вещей. Поколение Galaxy S10 создано, чтобы вернуть инициативу на сторону Samsung.
Но вместо этого оно оказалось вполне конкретной реакцией на достижения Huawei. Galaxy S10+ во многом повторяет то, что китайцы сделали в прошлом году. Тройная камера с возможностью как зума, так и съемки с широким углом? Было. Фронталка, вписанная прямо в экран? Было. Обратная беспроводная зарядка? Было. У S10+ не находится ни одного козыря, который бы производил однозначный «вау-эффект» и создавал чувство, что у вас в руках абсолютно уникальный смартфон, способный на вещи, которые недоступны другим.
Нет, это смартфон-реакция. Очень качественный, умеющий все на очень высоком уровне и справедливо входящий в современную элиту – но уже без какого-то «королевского статуса». Это больше не «однозначно лучший Android-смартфон», а «один из лучших»: красивый, мощный, умеющий прекрасно снимать фото и видео, с отличной автономностью и крутым экраном… и с очевидной опаской ожидающий выхода Huawei P30 Pro.
**Достоинства:** **Недостатки:** |
984,030 | Обзор блока питания NZXT E850: умный «фокус» | Блоки питания — конечно, не основное направление деятельности NZXT. Актуальным сейчас является лишь одно семейство — E-серия, и она насчитывает всего три модели: мощностью 500, 650 и 850 Вт. Впрочем, несмотря на скромный ассортимент, эти три модели способны удовлетворить запросы подавляющего большинства пользователей производительных систем. Даже самой младшей модели с запасом хватает для питания весьма мощной системы с одиночной видеокартой уровня GeForce RTX 2070, а более мощные варианты подойдут любителям разгона или пользователям ПК с 2-3 видеокартами.
Блоки питания сертифицированы по уровню энергоэффективности 80 PLUS Gold и имеют десятилетнюю гарантию производителя. Отдельно стоит упомянуть возможность мониторинга электрических параметров и энергопотребления, а также управление алгоритмом работы вентилятора при помощи утилиты NZXT CAM.
Насколько же хорошо блок питания выполняет свои прямые обязанности — покажет наше тестирование.
⇡#
**Упаковка, комплект поставки, внешний вид**
Блок питания поставляется в довольно крупной коробке, оформленной в бело-фиолетовой гамме.
На обороте коробки приведено достаточно подробное описание основных особенностей модели на английском языке, имеется таблица с входными и выходными параметрами, а также перечислены разъемы питания, которыми располагает БП.
На торцах коробки приведено более краткое, зато многоязычное описание особенностей блока питания.
Комплект поставки, как и положено для устройств достаточно высокого класса, довольно обширен. В дополнение к традиционным крепежным винтам, инструкции и шнуру питания здесь можно найти две сумки — для самого блока питания (весьма простенькую) и для кабелей и аксессуаров (куда более основательную, из плотной ткани и с застежкой-молнией).
Внешность блока достаточно оригинальна: нестандартная конструкция корпуса, углубленная полоска на боковине. Имя производителя и модели неярко выделяются на общем фоне лишь оттенком. Все это дополняет необычная по форме, хотя и не слишком эффективная с точки зрения прохождения воздушного потока штампованная решетка вентилятора.
На задней панели размещены вход шнура питания и выключатель питания.
На передней панели обнаруживаются разъемы для подключения кабелей питания, гарантийный стикер и порт Mini-USB, подключение которого к колодке USB 2.0 на материнской плате обеспечивает работу с утилитой NZXT CAM.
На нижней грани корпуса размещена наклейка с электрическими параметрами устройства.
В целом облик блока питания получился вполне узнаваемым и самобытным, и для тех, кому важна эстетика системного блока, это скорее плюс.
Выходные параметры вполне типичны для современных блоков питания: почти вся выходная мощность может быть передана по напряжению 12 В, на которое приходится подавляющая доля нагрузки современных систем, суммарная нагрузка на напряжения 3,3 и 5 В может достигать 100 Вт (что существенно превосходит потребности современных ПК), а нагрузка на дежурное питание — до 3 А.
|
Производитель |
NZXT
|
Модель |
E850
|
Подключение кабелей |Полностью модульное
|
Максимальная мощность нагрузки, Вт |850
|
Сертификация 80 PLUS |Gold
|
Версия ATX |ATX12V 2.4 / EPS12V v2.92
|
Параметры электросети |100-240 В, 12-6 А, 50-60 Гц
|
КПД |>90%
|
PFC |Активный
|
Защита нагрузки |OVP (защита от превышения напряжения)
|OPP (защита от превышения мощности)
|SCP (защита от короткого замыкания)
|OCP (защита от превышения силы тока)
|SIP (защита от скачков напряжения и тока)
|OTP (защита от превышения температуры)
|
Габариты, мм |150 × 86 × 150
|
Масса, кг |2,5 (с учетом кабелей)
|
Наработка на отказ (MTBF), ч |100 000
|
Гарантийный срок, лет |10
|
Ориентировочная стоимость |от 11 тыс. рублей
Длина блока составляет 150 мм, что несколько больше стандартных 140 мм, но вряд ли вызовет неудобства даже при установке в не слишком просторные корпуса.
Гарантия производителя составляет 10 лет — один из лучших показателей, которые предлагаются для блоков питания. Более продолжительную, 12-летнюю гарантию имеют лишь блоки питания Seasonic серии Prime.
В целом доступный набор разъемов вполне адекватен мощностным возможностям блока питания. Нет претензий и к длине кабелей: 65 см для шлейфов дополнительного питания процессора достаточно для скрытной прокладки в подавляющем большинстве корпусов, а «периферийные» шлейфы имеют по 50 см до первого разъема.
Набор разъемов питания:
Отметим лишь, что одновременно подключить все комплектные кабели не получится: для четырех входящих в комплект поставки шлейфов с разъемами питания SATA и Molex имеется лишь три разъема на блоке питания. Вероятнее всего, незадействованным останется один из двух шлейфов с малоактуальными для современного «железа» 4-контатными разъемами
Все провода имеют сечение 18 AWG. Основной шлейф питания и шлейфы питания CPU и видеокарт PCI-E имеют нейлоновую оплетку.
Шлейфы с разъемами питания SATA и Molex сделаны плоскими.
Провод для подключения к внутренней USB-колодке, позволяющий активировать функции мониторинга и управления, имеет длину 60 см и заключен в оплетку из ПВХ.
⇡#
**Конструкция, внутреннее устройство**
Внутренние компоненты охлаждаются вентилятором Hong Hua HA1225H12SF-Z типоразмера 120 мм на основе гидродинамического подшипника. Часть площади крыльчатки закрыта прозрачным экраном для оптимизации потоков воздуха внутри корпуса БП. Паспортная скорость вентилятора составляет 2200 об/мин.
Первый же взгляд внутрь позволяет безошибочно определить «донора» начинки тестируемого блока питания. Перед нашими глазами устройство, основанное на платформе Seasonic FOCUS Gold с определенными доработками, связанными с добавлением функций мониторинга и управления.
Основное отличие от исходной платформы заключается в наличии дополнительной дочерней платы перед платой с преобразователями постоянного тока — на ней хорошо видна крупная микросхема контроллера UCD3138064A производства Texas Instruments, частью которой является 32-битный процессор ARM7 с частотой 31,25 МГц. К разъему на этой плате подключается и вентилятор охлаждения.
Изменения относительно Seasonic FOCUS коснулись и платы с модульными разъемами (как минимум потому, что их потребовалось дополнить разъемом Mini-USB). Эта плата увеличилась в размерах, на нее добавился микроконтроллер PIC16F1455 для обеспечения функционирования USB-интерфейса.
Также плата обзавелась изрядным количеством сглаживающих конденсаторов со стороны размещения модульных разъемов.
В остальном же рассматриваемый нами блок питания NZXT не отличается от исходной платформы Seasonic.
Входной фильтр включает в себя четыре конденсатора CY, два конденсатора CX (половина из них размещена на входе шнура питания) и пару синфазных дросселей. Также имеется варистор для защиты от кратковременных скачков напряжения.
Все основные управляющие микросхемы, за исключением контроллера дежурного питания, как и в Seasonic FOCUS, размещены на нижней стороне основной печатной платы.
Входной конденсатор изготовлен японской компанией Hitachi.
Прочие электролитические конденсаторы также имеют японское происхождение и произведены компаниями Nippon Chemi-Con и Nichicon.
В целом качество компонентов и сборки не вызывает никаких вопросов.
Методика тестирования, принятая в 3DNews, описана в отдельной статье, которую мы рекомендуем прочитать, если вы хотите разобраться в устройстве компьютерных блоков питания и их важнейших характеристиках. Обращайтесь к ней, чтобы узнать, зачем нужен и как работает тот или иной компонент, упомянутый в обзоре, и как интерпретировать результаты тестирования.
Используемый нами ваттметр несколько занижает потребление «из розетки» при средних и высоких нагрузках, и потому полученные нами показатели КПД слегка завышены относительно реальности. Однако они вполне сочетаются с результатами других протестированных нами БП, сертифицированных по уровню 80 PLUS Gold.
Работа системы охлаждения при настройках по умолчанию произвела двойственное впечатление. С одной стороны, вентилятор запустился лишь на подходе к мощности 300 Вт, тогда как производитель обещал, что он будет бездействовать лишь до 100 Вт мощности. Это, разумеется, плюс, причем весьма солидный, — на типовых нагрузках (веб-серфинг, работа в офисных приложениях, просмотр видео и так далее) блок питания точно не станет источником шума от системы.
С другой стороны, после набора половинной мощности обороты вентилятора растут слишком быстро, и на максимальной мощности крыльчатка раскручивается практически до полной паспортной скорости. При этом корпус блока питания почти не нагревается, что говорит о том, что алгоритм регулировки оборотов вентилятора мог бы быть настроен куда менее агрессивно.
Впрочем, при помощи утилиты NZXT CAM можно сменить профиль работы вентилятора, выбрав установку Silent, или вообще настроить свой алгоритм работы системы охлаждения блока питания.
Кросс-нагрузочные характеристики блока вопросов не вызвали: отклонения укладываются в 1% от номинала по всем трем основным напряжениям на всем диапазоне мощности.
Высокочастотные пульсации напряжений минимальны как по линии 12 В, так и по линии 5 В. Низкочастотные пульсации по напряжению 5 В также весьма невелики, а по напряжению 12 В хотя и заметны, но с многократным запасом укладываются в допуски стандарта.
Блок питания NZXT E850 продемонстрировал отличную стабильность выдаваемых напряжений и минимальный размах пульсаций напряжения. Его внешний вид вполне оригинален, качество компонентов и сборки не вызывает ни малейших нареканий. Достоинства модели подтверждает и десятилетняя гарантия производителя.
Единственная претензия, которая возникла у нас в ходе тестирования, сводится к тому, что подъем оборотов вентилятора при выходной мощности более половины от номинала блока чрезмерно агрессивен. Однако и этот недостаток может быть исправлен благодаря дополнительной функциональности NZXT E850 в виде возможности настройки алгоритма работы вентилятора через утилиту CAM (которая также имеет широкую прочую функциональность).
Достаточно привлекательно выглядит и цена блока питания, лишь незначительно превышающая в отечественной рознице стоимость соплатформенного, но не обладающего возможностями настройки и мониторинга параметров Seasonic FOCUS Plus той же мощности. |
984,070 | Gamesblender № 403: сломанная Anthem, новый шутер на движке Quake и волшебная Trine 4 | С вами GamesBlender, еженедельный видеодайджест новостей игровой индустрии от 3DNews.ru. В сегодняшнем выпуске: трудности перевода Death Stranding для простых смертных; новые рекорды Apex Legends; Day Gone сумела удивить журналистов. А также другие новости и события игровой индустрии |
984,126 | Обзор ноутбука Lenovo ThinkPad X1 Extreme: классика с новым «движком» | Серия ноутбуков Lenovo ThinkPad X1 Extreme, помимо весьма впечатляющей родословной, имеет несколько преимуществ для тех, кому нужен мощный и при этом легко транспортируемый ноутбук. Протестированный нами компьютер оснащен быстрым 6-ядерным процессором Intel и дискретной графикой GeForce GTX 1050 Ti. При этом «Экстрим» вполне реально считать компактной моделью, оснащенной 15-дюймовым экраном.
⇡#Технические характеристики, комплектация и ПО
В продаже можно найти несколько модификаций Lenovo ThinkPad X1 Extreme, но в каждой из них в любом случае используется мобильная графика GeForce GTX 1050 Ti в дизайне Max-Q. Все возможные комбинации железа указаны в таблице ниже.
|
Lenovo ThinkPad X1 Extreme
|
Дисплей |15,6'', 1920 × 1080, IPS, матовый
15,6'', 3840 × 2160, IPS, глянцевый, сенсорный
|
Центральный процессор |Intel Core i7-8750H, 6/12 ядер/потоков, 2,2 (4,1) ГГц, 45 Вт
Intel Core i5-8300H, 4/8 ядра/потоков, 2,3 (4,0) ГГц, 45 Вт
|
Видеокарта |NVIDIA GeForce GTX 1050 Ti Max-Q, 4 Гбайт
|
Оперативная память |До 64 Гбайт, DDR4-2666, 2 канала
|
Установка накопителей |2 × M.2 в режиме PCI Express x4 3.0 или SATA 6 Гбит/с
|
Оптический привод |Нет
|
Интерфейсы |2 × USB 3.1 Gen1 Type-A
2 × Thunderbolt 3
1 × USB 3.1 Gen2 Type-A
1 × 3,5-мм мини-джек
1 × HDMI
1 × считыватель смарт-карт
1 × картридер
1 × mini-Ethernet
|
Встроенный аккумулятор |80 Вт⋅ч
|
Внешний блок питания |135 Вт
|
Размеры |361 × 245 × 18,4 мм
|
Масса ноутбука |С FHD — 1,7 кг
С 4K — 1,8 кг
|
Операционная система |Windows 10 x64 Pro
|
Гарантия |3 года
|
Цена в России по данным «Яндекс.Маркета» |201 000 рублей за тестовую модель
Как видите, к нам в тестовую лабораторию приехала, пожалуй, самая прокачанная версия Lenovo ThinkPad X1 Extreme. Так, ноутбук оснащен 4K-экраном, 6-ядерным процессором Core i7-8750H, 16 Гбайт ОЗУ и твердотельным накопителем на 512 Гбайт. Стоит такая модификация в московской рознице в среднем 201 000 рублей. За модель с Full HD-дисплеем, Core i5-8300H, 16 Гбайт оперативной памяти и 256 Гбайт SSD в столице просят около 153 000 рублей. Во всех случаях на ноутбук устанавливается профессиональная версия операционной системы Windows 10.
Все лэптопы серии Lenovo ThinkPad X1 Extreme оснащены беспроводным модулем Intel Wireless-AC 9560, который поддерживает стандарты IEEE 802.11b/g/n/ac с частотой 2,4 и 5 ГГц и максимальной пропускной способностью до 1,73 Гбит/с и Bluetooth 5.
В комплекте с «Экстримом» шел только внешний блок питания мощностью 135 Вт и массой порядка 400 г.
⇡#Внешний вид и устройства ввода
Уже одного слова — ThinkPad — достаточно для того, чтобы понять, как выглядит ноутбук Lenovo. Корпус «Экстрима» целиком выполнен из пластика. Все детали, кроме рамки дисплея, снабжены бархатистым покрытием soft touch. Материал не маркий — после двух недель работы с устройством смело заявляю: отпечатки пальцев к себе в основном притягивает только тачпад, остальные же части остаются чистыми.
В выключенном состоянии кажется, что Lenovo ThinkPad X1 Extreme обладает практически безрамочным дисплеем. Однако это не так. В случае с тестовой моделью 4K-дисплей помещен в черную рамку. В результате слева и справа общая толщина рамок составляет 8 мм, сверху — 13 мм, снизу — 23 мм. Веб-камера расположена сверху.
Крышка ноутбука в Lenovo ThinkPad X1 Extreme раскрывается на 180 градусов, что в целом характерно для этой серии. К сожалению, открыть одной рукой лэптоп не получится: в конструкции ноутбука используются довольно тугие петли, которые зато позволяют четко и надежно удерживать экран.
Как я уже сказал, несомненными достоинствами ThinkPad X1 Extreme являются его размеры и масса. Так, любая версия лэптопа Lenovo весит меньше 2 кг, поэтому носить устройство каждый день с собой не составит особого труда. Толщина «Экстрима» составляет всего 18,4 мм.
На левой стороне Lenovo ThinkPad X1 Extreme расположены разъем для подключения блока питания, сразу два порта Thunderbolt 3, совмещенные с USB 3.1 Gen2 C-типа, выход HDMI 2.0, разъем mini-Ethernet (переходник на полноценный RJ-45 идет в комплекте) и 3,5-мм гнездо для подключения наушников. На правой стороне лэптопа расположены считывать смарт-карт, картридер, поддерживающий 4 формата внешних запоминающих устройств, два USB 3.1 Gen1 A-типа и слот для замка Kensington.
На мой взгляд, у рассматриваемой модели с функциональностью все в порядке. Как видите, Lenovo ThinkPad X1 Extreme поддерживает подключение до четырех независимых мониторов. Кроме того, опциональная ИК-камера поддерживает технологию Glance для комплексного распознавания лица, радужной оболочки и движения взгляда. Например, с ее помощью можно перемещать окна всего лишь движением глаз.
Клавиатура Lenovo ThinkPad X1 Extreme — это самая настоящая классика. Конечно, тем пользователям, которые никогда не сталкивались с такой клавиатурой, будет поначалу непривычно иметь дело с левым Ctrl, нестандартными PgUp, PgDn и PrtSc, но к такому расположению кнопок довольно быстро привыкаешь. Зато у «Экстрима» очень большие и удобные Shift, Enter, Tab и Backspace. А еще, в отличие от многих ультрабуков, у ThinkPad X1 Extreme довольно большой ход клавиш, с ощутимым четким нажатием. Набирать текст на такой клавиатуре очень комфортно. Ряд F1-F12 по умолчанию работает в комбинации с кнопкой Fn, тогда как приоритет отдан их мультимедийным функциям.
Клавиатура в Lenovo ThinkPad X1 Extreme оснащена двухуровневой подсветкой белого цвета. В правой части корпуса расположен дактилоскопический сенсор Match-on-Chip. Как и все остальные полноценные ThinkPad, X1 Extreme оснащен двумя манипуляторами: сенсорной панелью с тремя кнопками и мини-джойстиком TrackPoint. Производитель утверждает, что Lenovo ThinkPad X1 Extreme не боится даже попадания жидкости на клавиатуру.
Сенсорная панель устройства достаточно удобна в работе. Покрытие на первый взгляд кажется таким же, как на корпусе, но на деле оказывается более «резиновым» и более приятным на ощупь.
Что касается веб-камеры, то в Lenovo ThinkPad X1 Extreme используется матрица с разрешением 720p и частотой 30 Гц. Этого достаточно для звонков по Skype — и только. Добавлю, что разблокировка операционной системы возможна в том числе и при помощи идентификации лица (технология Windows Hello), а управление различными функциями — с помощью системы голосовых команд (виртуальная ассистентка Cortana).
Веб-камера снабжена защитной шторкой ThinkShutter — пригодится тем, кто считает, что Большой Брат следит за ними.
⇡#Внутреннее устройство и возможности апгрейда
Ноутбук довольно просто разбирается: откручиваем несколько винтов — и аккуратно снимаем пластиковое днище.
Как видите, процессор и мобильная графика охлаждаются единым массивом теплотрубок и вентиляторов. Поскольку в системе используется довольно мощный, 45-ваттный центральный процессор, возникают некоторые опасения насчет того, насколько эффективным окажется такой кулер. В то же время производитель заявляет, что устройство соответствует требованиям двенадцати военных стандартов, а также прошло более 200 проверок на работоспособность в экстремальных условиях. Утверждается, что Lenovo ThinkPad X1 Extreme будет надежно работать среди арктических снегов и пыльных бурь, в невесомости и под проливным дождем.
В тестовом экземпляре установлено 16 Гбайт оперативной памяти в виде одного модуля Samsung. Плашка работает на эффективной частоте 2666 МГц при латентности 19-19-19-43. Операционная система Windows установлена на NVMe-накопитель Intel SSDPEKKF512G8L объемом 512 Гбайт. Возможности установить в Lenovo ThinkPad X1 Extreme 2,5-дюймовый жесткий диск или SSD нет.
Возможные действия по последующему апгрейду ноутбука очевидны: сюда так и просится еще один 16-гигабайтный модуль ОЗУ. Также со временем вы сможете установить второй твердотельный накопитель, поскольку материнская плата Lenovo ThinkPad X1 Extreme оснащена двумя M.2-слотами.
Так как в лэптопе установлено далеко не самое производительное графическое решение, то нет смысла использовать исключительно максимальные или близкие к ним настройки качества графики. К тому же при тестировании Lenovo ThinkPad X1 Extreme использовалось только разрешение Full HD, хотя ноутбук оснащен 4K-дисплеем.
|
API |
Качество |
Полноэкранное сглаживание
|
1920 × 1080
|
«Ведьмак-3: Дикая охота», Новиград и окрестности |DirectX 11
|Макс. качество
|AA
|Высокое
|
GTA V, встроенный бенчмарк |Макс. качество
|4 × MSAA + FXAA
|Без сглаживания
|
FarCry 5, встроенный бенчмарк |Макс. качество, HD-текстуры выкл.
|TAA
|Высокое
|TAA
|
Assassin's Creed Odyssey, встроенный бенчмарк |Самое высокое
|Высокое
|Высокое
|Без сглаживания
|
Dota 2, запись матча |Макс. качество
|Без сглаживания
|
World of Tanks 1.0, EnCore бенчмарк |Макс. качество
|TSSAA HQ
|
Total War: WARHAMMER II, встроенный бенчмарк |DirectX 12
|Макс. качество
|4 × MSAA
|Высокое
|Без сглаживания
|
Battlefield V, миссия «Последний тигр» |Ультра
|TAA
|Высокое
|
Shadow of the Tomb Raider, встроенный бенчмарк |Макс. качество
|SMAAT2x
|Высокое
|Без сглаживания
|
Metro Exodus, Волга |Экстрим, NVIDIA HairWorks вкл., Physics вкл.
|Высокое, NVIDIA HairWorks вкл., Physics вкл.
Производительность в играх определялась при помощи хорошо известной программы FRAPS. С ее помощью мы получаем время рендеринга каждого кадра. Затем при помощи утилиты FRAFS Bench Viewer рассчитывается не только средний FPS, но и 99-й процентиль. Использование 99-го процентиля вместо показателей минимального количества кадров в секунду обусловлено стремлением очистить результаты от случайных всплесков производительности, которые были спровоцированы не связанными напрямую с работой основных компонентов платформы причинами.
Измерение производительности процессора и памяти было проведено при помощи следующего ПО:
Тестирование дисплея производится при помощи колориметра X-Rite i1Display Pro и приложения HCFR.
Время работы ноутбука от аккумулятора проверяется в трех режимах. Первый вариант нагрузки — веб-серфинг — подразумевает поочередное открытие и закрытие вкладок сайтов 3DNews.ru, Computeruniverse.ru и Unsplash.com с интервалом 30 секунд. Для этого теста используется браузер Google Chrome с включенными опциями «Блокировать данные и файлы cookie сторонних сайтов» и «Не разрешать сайтам сохранять данные». Во втором режиме воспроизводится видео формата x265 (HEVC) в стандартном плеере Windows 10 с активированной функцией повтора. Третий тип нагрузки — это запуск бенчмарка Unigine Heaven на максимальных настройках качества графики в полноэкранном режиме. Во всех трех случаях выставлялась одинаковая яркость дисплея в 220 кд/м
2.
В играх и других приложениях рассмотрены результаты следующих ноутбуков:
|
Участники тестирования
|
Модель |
Экран |
Процессор |
Оперативная память |
Графика |
Накопитель |
Батарея
|MSI GE73VR 7RF Raider
|17,3'', 1920 × 1080, TN
|Intel Core i7-7700HQ, 4/8 ядра/потоков, 2,8 (3,8) ГГц, 45 Вт
|16 Гбайт, DDR4-2400, два канала
|NVIDIA GeForce GTX 1070, 8 Гбайт GDDR5
|HDD, 1 Тбайт, 7200 об/мин + 2 × SSD, 256 Гбайт, SATA 6 Гбит/с
|51 Вт⋅ч
|MSI GE73 Raider RGB 8RF
|17,3'', 1920 × 1080, TN
|Intel Core i7-8750H, 6/12 ядер/потоков, 2,2 (4,1) ГГц, 45 Вт
|32 Гбайт, DDR4-2400, два канала
|NVIDIA GeForce GTX 1070, 8 Гбайт GDDR5
|HDD, 1 Тбайт, 7200 об/мин + SSD, 256 Гбайт, SATA 6 Гбит/с
|51 Вт⋅ч
|ASUS ROG Strix GL553VE
|15,6'', 1920 × 1080, IPS
|Intel Core i7-7700HQ, 4/8 ядра/потоков, 2,8 (3,8) ГГц, 45 Вт
|16 Гбайт, DDR4-2400, два канала
|NVIDIA GeForce GTX 1050 Ti, 4 Гбайт GDDR5
|HDD, 1 Тбайт, 5400 об/мин + SSD, 128 Гбайт, SATA 6 Гбит/с
|48 Вт⋅ч
|
Lenovo ThinkPad X1 Extreme |15,6'', 3840 × 2160, IPS
|Intel Core i7-8750H, 6/12 ядер/потоков, 2,2 (4,1) ГГц, 45 Вт
|16 Гбайт, DDR4-2666, один канал
|NVIDIA GeForce GTX 1050 T Max-Qi, 4 Гбайт GDDR5
|SSD, 512 Гбайт, PCI Express x4 3.0
|80 Вт⋅ч
Как было отмечено в первой части обзора, в продаже вы встретите версии Lenovo ThinkPad X1 Extreme с Full HD- и 4K-экранами. Во втором случае дисплей оснащен сенсорным глянцевым покрытием — со всеми вытекающими плюсами и минусами. В тестовом экземпляре используется IPS-матрица AU Optronics B156ZAN03.2. Дисплей примечателен тем, что для него заявлена поддержка воспроизведение HDR-контента.
Lenovo ThinkPad X1 Extreme отлично подходит для просмотра фильмов. Так, контрастность матрицы составляет 1467:1. Минимальная светимость белого равна 3 кд/м
2, а максимальная — 389 кд/м 2. Получается, лэптопом комфортно пользоваться и в кромешной темноте, и в ясную солнечную погоду. Гамма составляет 2,29, то есть немного превышает эталонное значение 2,2.
Замеры колориметром показали, что цветовая температура дисплея во всем диапазоне находится заметно выше эталонного значения 6500 K, но при этом наблюдается хорошая стабильность оттенков серого. Во многом из-за этого средняя ошибка DeltaE по шкале серого довольно высока — 7,9 при максимальном значении 12. А вот средний показатель в тесте ColorChecker24 составил 4,58 при максимальном отклонении 8,35. Цветовой охват AU Optronics B156ZAN03.2 заметно превышает стандарт sRGB, но из-за отклонений в цветопередаче не полностью соответствует стандарту AdobeRGB.
У тестовой модели есть ярко выраженный засвет в левом верхнем углу экрана. При этом совершенно не факт, что это касается всех экземпляров. Поэтому перед покупкой лучше лично проверить ноутбук на предмет таких вот недостатков — смело утверждаю, что они носят строго локальный характер. Glow-эффект, как и у большинства IPS-матриц, присутствует, но проявляется в основном на черном поле. Экран AUO обладает отличными углами обзора как по вертикали, так и по горизонтали. Наконец, используемая матрица относится к разряду Flicker-Free-решений во всем рабочем диапазоне яркости.
Звук у динамиков Lenovo ThinkPad X1 Extreme плоский — нижних частот нет, и в лэптопе толщиной 18 мм появиться им неоткуда. Средние и верхние частоты тоже звучат невыразительно, особенно верхние. А еще динамики Lenovo ThinkPad X1 Extreme нельзя назвать громкими.
⇡#Производительность ноутбука в ресурсоемких приложениях
Уже давно фактором, определяющим производительность любого ноутбука, является эффективность работы его системы охлаждения. Особенно критичной эта зависимость стала с появлением 6-ядерных процессоров Coffee Lake. С этого года я принял решение более подробно изучать возможности системы охлаждения лэптопов, а также выявлять зависимость уровня быстродействия CPU, GPU и оперативной памяти от качества используемого в системе кулера. В частности, отныне тестирование проходит не только в режиме по умолчанию, но и после ручной настройки в программе Intel Extreme Tuning Utility. А ведь уже скоро Intel представит и 8-ядерные ноутбучные чипы…
Программы калибра LinX и Prime95 — лакмусовая бумажка для современных ноутбуков, собранных на основе чипов Coffee Lake. Как известно, тактовая частота Core i7-8750H составляет 2,2 ГГц, однако в режим Turbo Boost при загрузке всех шести ядер она может увеличиться до 3,9 ГГц. Только вот уровень TDP этого чипа составляет 45 Вт, и такого лимита мощности в ряде случаев оказывается недостаточно для работы мобильного ЦП на полную катушку.
Подтверждение моих слов — на скриншоте выше. Core i7-8750H, используемый в Lenovo ThinkPad X1 Extreme, в программе LinX сбрасывает частоту с 3,9 до 2,0 ГГц — мы наблюдаем троттлинг на 200 МГц. Такое резкое падение частоты связано в первую очередь с 45-ваттным ограничением по TDP. Впрочем, работать на частоте 3,9 ГГц (например, если бы у нас была возможность увеличить уровень типичного энергопотребления CPU) в случае с Lenovo ThinkPad X1 Extreme 6-ядерник Intel все равно не смог бы, так как температура его самого горячего ядра достигает 98 градусов Цельсия. Зато, кстати, в таком режиме лэптоп ведет себя довольно тихо — с расстояния в 30 сантиметров шумомер зафиксировал 39,7 дБА.
Что ж, в программе Intel Extreme Tuning Utility в режиме Offset мне удалось снизить напряжение питания CPU на 0,185 В. Как видите, у Core i7-8750H в режиме по умолчанию довольно сильно завышен параметр VCore. Такой даунвольтинг заметно уменьшил аппетиты 6-ядерника — в том же LinX его частота теперь снижалась до 2,5 ГГц при тех же параметрах Core Max и уровне шума. Получается, мы ускорили Lenovo ThinkPad X1 Extreme на 500 МГц нажатием всего одной кнопки.
В других программах в режиме по умолчанию Core i7-8750H работал на частоте 3,3 ГГц — Turbo Boost включался, но не в полную силу. В этом случае виновата система охлаждения, состоящая, как мы уже выяснили, всего из двух теплотрубок. Понижение процессорного напряжения позволило чипу работать на полную мощность, что привело к заметному росту производительности практически во всех программах. Например, в x265 Benchmark ноутбук стал быстрее на 11 %, а в CINEBENCH R15 — на 12 %.
Так сложилось, что 6-ядерный процессор Core i7-8750H используется в основном в игровых ноутбуках, которые, как правило, не могут похвастать небольшой массой и компактностью. В частности, Lenovo ThinkPad X1 Extreme мы сравнивали с 17-дюймовой моделью MSI. Как видите, просадки тактовой частоты центрального процессора приводят к тому, что «Экстрим» в некоторых тестах серьезно отстает от лэптопа с более эффективной системой охлаждения. Однако самостоятельное снижение напряжения ЦП дало свои плоды — Lenovo ThinkPad X1 Extreme стал работать заметно быстрее.
Не стоит забывать, что оперативная память рассматриваемого лэптопа работает в одноканальном режиме. Логика производителя ясна: свободный слот SO-DIMM на материнской плате оставлен для последующего «безболезненного» апгрейда системы.
⇡#Производительность ноутбука в играх
Lenovo ThinkPad X1 Extreme примечателен тем, что в нем используется мобильная графика GeForce GTX 1050 Ti в Max-Q-дизайне. Это значит, что в ноутбуке установлен более энергоэффективный GPU, который работает на более низких частотах. Смотрите сами: частота графического ядра «обычной» GeForce GTX 1050 Ti в ASUS ROG Strix GL553VE в играх меняется в диапазоне от 1696 до 1734 МГц; в устройстве Lenovo же ГП работает в пределах 1342-1658 МГц. Естественно, такое снижение частоты скажется на производительности ноутбука в играх.
Обращу ваше внимание, что в играх GPU нагревается до 75 градусов Цельсия. Температура самого горячего ядра центрального процессора поднимается до 97 градусов Цельсия, а частота Core i7-8750H снижается с 3,9 до 2,4 ГГц. При этом работает Lenovo ThinkPad X1 Extreme довольно тихо — с расстояния в 30 см шумомер зафиксировал значение 39,2 дБА.
Снижение напряжения центрального процессора на 0,185 В, кстати, принесло пользу и в играх. В той же «Доте» частота Core i7-8750H теперь снижалась только до 3,3 ГГц, а максимальная температура чипа составляла уже 91 градус Цельсия.
Конечно же, Lenovo ThinkPad X1 Extreme в играх будет уступать ноутбукам с полноценной мобильной версией GeForce GTX 1050 Ti. Например, в тесте 3DMark Time Spy разница в баллах достигает 4 % в пользу ASUS ROG Strix GL553VE.
Таблица ниже наглядно показывает, что сейчас уровня быстродействия Lenovo ThinkPad X1 Extreme и его GeForce GTX 1050 Ti Max-Q достаточно, чтобы комфортно играть в современные игры в разрешении Full HD с использованием в основном средних и высоких настроек качества графики. Впрочем, этой модели вполне можно сделать поблажку, ведь она не позиционируется производителем как чисто игровая машина. Правильнее будет сказать так: Lenovo ThinkPad X1 Extreme подходит не только для работы, но и для игр.
|
Lenovo ThinkPad X1 Extreme
|
Качество графики |
AVG FPS |
MIN FPS
|
«Ведьмак-3: Дикая охота», Новиград и окрестности |Макс. качество
|33
|16
|Высокое
|41
|29
|
GTA V, встроенный бенчмарк |Макс. качество
|32
|20
|Высокое
|41
|28
|
FarCry 5, встроенный бенчмарк |Макс. качество, AA вкл.
|31
|17
|Макс. качество, AA выкл.
|33
|19
|
Assassin's Creed Odyssey, встроенный бенчмарк |Макс. качество
|19
|13
|Высокое
|38
|27
|
Dota 2, запись матча |Ультра
|86
|54
|
World of Tanks 1.0, EnCore бенчмарк |Высокое
|58
|43
|
Total War: WARHAMMER II, встроенный бенчмарк |Макс. качество
|21
|17
|Высокое
|44
|31
|
Battlefield V, миссия «Последний тигр» |Макс. качество
|34
|24
|Высокое
|38
|26
|
Shadow of the Tomb Raider, встроенный бенчмарк |Макс. качество
|27
|19
|Высокое
|33
|27
|
Metro Exodus, Волга |Экстрим
|22
|14
|Высокое
|34
|19
⇡#Быстродействие дисковой подсистемы
Основное запоминающее устройство в Lenovo ThinkPad X1 Extreme вам вряд ли захочется менять — 512 Гбайт достаточно, чтобы установить все основные программы, а также, например, несколько игр. Согласно техническим характеристикам, скорость линейного чтения Intel SSDPEKNW512G8 достигает 1500 Мбайт/с, а скорость последовательной записи — 1000 Мбайт/с. Этот накопитель относится к серии 660p, подробный обзор которой совсем недавно вышел на нашем сайте.
В ноутбук установлено четыре ячейки аккумулятора суммарной емкостью 80 Вт⋅ч. По внутренним тестам производителя, ноутбук может продержаться 15 часов. Я заметил, что наши тесты автономной работы нагружают систему заметно сильнее. В частности, это связано с тем, что я устанавливаю довольно высокую яркость экрана, при которой комфортно работать днем. По этой методике протестировано уже много ноутбуков. Если устройство может в режиме веб-серфинга продержаться 6-8 часов, то его автономность можно смело считать хорошей. Как видите, у Lenovo ThinkPad X1 Extreme для 15-дюймового ноутбука с 4K-дисплеем с автономностью все в порядке — больше шести часов как при воспроизведении видео, так и в режиме веб-серфинга.
А еще лэптоп поддерживает функцию быстрой зарядки аккумулятора, которая позволяет пополнить заряд на 80 % всего за один час.
|
Время автономной работы, 220 кд/м 2
|Веб (открытие вкладок в Google Chrome)
|6 ч 6 мин
|Просмотр видео (4K, x265, HEVC)
|6 ч 12 мин
|Игры (UNIGINE Heaven, макс. настройки)
|1 ч 7 мин
К Lenovo ThinkPad X1 Extreme можно относиться по-разному. Некоторые плюсы рассмотренного ноутбука неоспоримы: перед вами довольно легкая, компактная и удобная в обращении «пятнашка», которую всегда можно брать с собой, например на работу. Устройство получило качественный корпус, удобную и проверенную временем клавиатуру, современные интерфейсы, емкий аккумулятор, а также качественный 4K-экран. Возможно, потенциальному владельцу Lenovo ThinkPad X1 Extreme пригодится целая гора функций безопасности: проверка подлинности FIDO, dTPM 2.0, сенсорный сканер отпечатков пальцев Match-on-Chip, Windows Hello с функцией распознавания лиц, шторка ThinkShutter, считыватель смарт-карт и замок Kensington. Получается, Lenovo ThinkPad X1 Extreme отлично сочетает в себе черты как корпоративных, так и мультимедийных ноутбуков.
Однако некоторые плюсы устройства породили и его недостатки. В частности, 6-ядерный процессор Lenovo ThinkPad X1 Extreme очень сильно греется и далеко не всегда работает на той частоте, которая заложена компанией Intel. Систему охлаждения лэптопа при этом можно назвать тихой. Если вас устраивают такие правила игры, то можете смело присмотреться к покупке данного устройства. Если вы готовы расстаться с 200 000 рублей, конечно же. |
984,144 | Daedalic Days — новые игры и новый курс европейского издательства | В офисе гостей встретил Карстен Фихтельман (Carsten Fichtelmann) — исполнительный директор Daedalic Entertainment. Место довольно скромное, аккуратное, без вычурных статуй персонажей во весь рост, но со «стеной славы», усыпанной наградами и множеством забавных постеров — как оригинальных, так и уже известных ранее, только с героями серии Deponia, сделавшей имя издателю. Daedalic славится тем, что не дает сгинуть в безвестности классическим рисованным квестам. Пытается, во всяком случае, хотя рынок диктует иные условия.
«Современный игрок часто смотрит в Сети, как другие проходят игры. Мы рады, что широкий круг людей может познакомиться с нашими произведениями, но как издатель не знаем, как это монетизировать. Поэтому мы развиваем наши проекты в разных жанрах», — говорит Карстен. Чтобы подкрепить эти слова, и было затеяно мероприятие. Журналистам показали четыре проекта от внешних студий, которые Daedalic планирует издавать, а также собственную разработку, над которой внутренняя команда трудится уже полтора года. Давайте по порядку.
**Iratus** **: ** **Lord** **of** **the** **Dead**
«Darkest Dungeon наоборот» — так будут называть Iratus: Lord of the Dead. Ее авторы, питерская студия Unfrozen, не скрывают источника вдохновения. Скорее, даже гордятся им, равно как и тем фактом, что их проект сравнивают со столь популярной игрой. Однако важно заметить, что ребята делают не безликий клон, который только и может, что выезжать на чужой популярности.
Разработчики подходят к проекту со всей серьезностью. Это понятно уже хотя бы по тому, что на озвучку позвали Стефана Уэйта (Stephan Weyte) — голос протагониста серии Blood. Его мрачный, с хрипотцой голос отлично подходит главному герою Иратусу — некроманту, которого по глупости освобождают из плена неудачливые археологи. Теперь колдуну предстоит вырваться на поверхность, вместе с армией нежити пройдя через семь этажей, которые отделяют его от свободы.
С одной стороны, все знакомые с «рогаликом» от Red Hook Studios почувствуют себя в Iratus как дома. С другой — в механике достаточно нововведений. Например, система перемещений по уровням совсем иная. Вам доступна вся карта локации, и вы сами решаете, какие испытания себе устроить: стоит ли выбрать маршрут посложнее, зато пролегающий через сокровища, или же направиться напрямик к боссу.
Столкнувшись с противником, вы переноситесь на арену сражений, где в ряд стоят четыре ваших бойца против четверки жалких и безумных людишек. Атаки зависят от положения воина на линии, а некоторые приемы могут менять боевой порядок. Нюанс в том, что за нежить теперь играете вы, поэтому с ума сходит противник: каждый удар наносит как физический, так и ментальный урон. Для победы порой проще сломить разум врага, причем проявляется это у разных оппонентов по-разному — одни сбегут, другие начнут в ужасе нападать на всех подряд, включая своих.
После победы вы получаете, помимо привычных денег, опыта и артефактов, еще и останки поверженных врагов: кости, кровь, мозги и прочее. Из этого материала в буквальном смысле и собирается отряд. Хотя некоторых бойцов можно получить, лишь выполнив особые условия. «Зверинец» довольно богат и включает несколько десятков отборных мертвецов, каждого из которых можно прокачать и приодеть. Не говоря о том, что у самого Иратуса есть несколько веток талантов. Игра предлагает достаточно возможностей, чтобы вы могли экспериментировать с тактиками и вновь и вновь проходить подземелья. Как обычно у роглайков, после смерти путь наверх придется начинать заново. Вырвется Иратус на свободу уже летом 2019 года, но сначала — в раннем доступе.
Объяснить смысл Barotrauma сложно. Это тот самый случай, когда лучше один раз увидеть, чем сто раз услышать. Со стороны игра кажется нагромождением кучи механик, в которых черт ногу сломит. Описание ясности не вносит — кооперативный симулятор подводной лодки в космосе. Точнее, в океане далекой планеты. Авторы припасли какую-то историю, и, путешествуя по мрачным глубинам, мы в конечном счете сложим кусочки сюжетной мозаики воедино, но проект вовсе не об этом.
Barotrauma — это настоящий кооперативный угар, степень веселья в котором зависит от напарников. Компанию можно собрать аж из шестнадцати человек. Каждый выбирает себе класс персонажа: капитан, медик, инженер, охранник и так далее — и отыгрывает соответствующую роль. Можно даже стать «предателем», который незаметно саботирует путешествие.
И вот вы погружаетесь все глубже, над головой — километровая толща воды, в иллюминаторе — неведомые монстры в духе фантазий Лавкрафта. Капитан пытается корректировать курс, пока медик-шутник прыгает вокруг него и всячески отвлекает несмешными каламбурами. Начальник охраны тем временем бегает по палубе, прикидываясь крутым спецназовцем, и прикола ради угрожает оружием всем подряд. Механик-идиот тем временем засмотрелся на видео с котятами и прошляпил течь, из-за которой половину отсеков уже затопило. Вот при таком сценарии Barotrauma — это пусть и специфичный, но весьма веселый опыт.
Игра всячески подталкивает развлекаться самостоятельно. Предусмотрен даже богатый редактор, в котором вы сможете собрать подлодку на любой вкус и цвет, придумать новых монстров и миссии, а затем поделиться творчеством в Steam Workshop. Видно, сколько труда и креатива было вложено, но будет ли Barotrauma популярна хотя бы в узком кругу — я не решусь утверждать. Проверим позже в этом году.
Unrailed — тоже сугубо кооперативная игра, но, в отличие от Barotrauma, приземленная и простая, как шпала. Жизнерадостный визуальный стиль и воксельная графика создают приятную, теплую атмосферу. Компании из четырех друзей надо подкладывать рельсы под едущий поезд, не допустив катастрофы. Рельсы изготавливаются из двух ресурсов, дерева и железа. Первое добывается топором, второе — киркой. Загвоздка в том, что персонаж может заниматься чем-то одним за раз. Если руки заняты ресурсами, инструменты вы не возьмете, и наоборот. Поэтому нужно четко распределить роли: один добывает материалы, второй носит их, третий строит дорогу.
Unrailed — это отличное упражнение на тему командной работы. Уровни генерируются случайным образом, и вполне может быть, что до места назначения нет прямой дороги, — придется прорубать путь через скалы или же отстраивать мост через реку. Локомотив может и внезапно загореться, и на этот случай надо заранее определиться, кто все бросает и бежит тушить пожар.
За полчаса игра умудрилась подарить мне больше веселья, чем иные проекты за несколько часов. Жаль только, что Unrailed вряд ли хватит надолго. Она подарит несколько безусловно ярких моментов, а потом навсегда покинет вашу жизнь. Примерно как Overcooked!
С Felix the Reaper сложилась странная ситуация. По отдельности в ней все хорошо. В основе игрового процесса — логическая головоломка. Вы меняете расположение солнца так, чтобы объекты на уровне отбрасывали тень нужным образом. Прячась от света, нужно достичь определенных точек на локации. Правила просты, однако решение далеко не всегда очевидно, и пытаться понять, чего от вас хотят, довольно интересно.
Мы играем за Феликса — милого толстячка, который работает в агентстве Смерти. Если вы знакомы с Grim Fandango, то даже заметите несколько отсылок к культовому квесту. Феликс любит две вещи: музыку и танцы. Поэтому он всегда в движении и по клеткам перемещается исключительно танцевальными па. Выглядит это чертовски мило. Музыку можно менять по своему вкусу, а игра даже рассказывает об исполнителях, чьи треки мы слушаем. Разработчики обещают ироничную историю о любви и смерти.
Но все элементы почему-то не складываются в действительно цельное произведение. Увлечение танцами никак не сказывается на игровом процессе — богатая анимация героя сделана просто потому что. Ну а что, выглядит-то мило! Геймплей же никак не обоснован историей. В конце концов, почему релиз в первую очередь для крупных платформ, если сама концепция куда больше подходит мобильным устройствам и весьма близка к серии Go от Square Enix?
Daedalic двигается вперед и пробует себя в новых жанрах. Таким шагом стала A Year of Rain, о которой разработчики рассказывают с упоением и огоньком в глазах. Видно, что они искренне любят свое детище. И очень хочется похвалить создателей, но как же это сложно! Проблема в том, что A Year of Rain — это настолько безликая хрестоматийная RTS, что выветривается из памяти в тот же миг, как вы выключаете игру. У нее очень блеклый, банальный визуальный стиль в духе мультяшного фэнтези и довольно странно расставленные акценты.
Разработчики видят A Year of Rain в первую очередь кооперативной игрой и затачивают под это все режимы. PvP — это сражения «два на два». Сюжетная кампания подгоняется под совместное прохождение. Есть даже отдельный режим, в котором два героя под управлением игроков отбиваются от волн противников. Да, тут есть уникальные персонажи со своими способностями и прокачкой, что напоминает о MOBA. Но и те какие-то банальные: рейнджер-стрелок, паладин, танк, маг. Интересных механик пока нет, а карта, на которой дали опробовать мультиплеерные битвы, — это обычная симметричная арена.
A Year of Rain могла бы сыграть на ностальгии — давно нас не баловали классическими стратегиями со строительством и добычей ресурсов. Но тут карты спутала Blizzard, которая скоро выпустит Warcraft III: Reforged. Акцент на онлайн заставляет усомниться в том, что Daedalic хватит сил на интересную сюжетную компанию. Ну и самое странное — желание ворваться в киберспорт. Амбиции — это хорошо, но в A Year of Rain нет ни драйва, ни интересных героев, ни занимательных механик. Остается лишь надеяться, что нам показали только очень ранний прототип, на котором создатели экспериментируют.
*** * ***
Желание Daedalic Entertainment расширить жанровое портфолию понятно и похвально. Компания берет под крыло проекты нишевые, но смелые и оригинальные. Однако хочется верить, что это еще не все планы на ближайшее время. Ведь издатель обещает как минимум не бросать приключенческий жанр, а также ворваться на рынок крупных ААА-проектов. Надеемся, тузы в рукаве еще есть… |
984,208 | Обзор видеокарты NVIDIA GeForce GTX 1660: Polaris, подвинься | Совсем недавно NVIDIA выпустила игровую видеокарту GeForce GTX 1660 Ti на базе нового графического процессора TU116, но движение архитектуры Turing в направлении бюджетных устройств еще не окончено. С помощью GTX 1660 Ti компания заменила GeForce GTX 1070 на свежую и более доступную модель с пониженным энергопотреблением, но перед новинкой — GeForce GTX 1660 — стоит другая задача: закрыть брешь в каталоге NVIDIA, которая до сих пор существует между GeForce GTX 1060 и GTX 1070. Осенью прошлого года в этом промежутке обосновался Radeon RX 590, а Radeon RX 580 в результате оптимизации драйверов и перехода игр на Direct3D 12 стал, как минимум, достойной альтернативой GeForce GTX 1060. Но с выходом GTX 1660 у «красных» GPU появился серьезный соперник в массовой категории потребительских видеокарт, ведь новинка одновременно дешевле Radeon RX 590 и обладает более высоким потенциалом быстродействия.
⇡#
**Технические характеристики, цена**
В основе GeForce GTX 1660 лежит графический процессор TU116 с частично деактивированными вычислительными блоками. Разница в конфигурации GPU между GTX 1660 и GTX 1660 Ti сводится к двум потоковым мультипроцессорам (SM), которые в сумме содержат 128 32-битных CUDA-ядра и 8 блоков наложения текстур. Таким образом, пропускная способность GeForce GTX 1660 пострадала лишь на 8,3 % в операциях с плавающей точкой и тексельном филлрейте без поправки на тактовые частоты GPU. А частоты, между прочим, у младшей модели только выросли: базовую частоту NVIDIA увеличила на 30 МГц, а Boost Clock — на 15 МГц.
Но таких осторожных изменений было бы недостаточно, чтобы дифференцировать GeForce GTX 1660 и GTX 1660 Ti. Главным признаком, разделяющим две модели, стал тип оперативной памяти. В то время как модификация Ti комплектуется микросхемами GDDR6 с пропускной способностью 12 Гбит/с на контакт, GeForce GTX 1660 вернулся к стандарту GDDR5. Более того, GTX 1660 оснащается чипами с пропускной способностью 8 Гбит/с, а значит, по совокупной ПСП новая видеокарта полностью соответствует стартовым спецификациям GeForce GTX 1060 с 6 Гбайт RAM, а позднейшие версии GTX 1060 с оперативной памятью стандарта 9 Гбит/с даже выигрывают у GTX 1660 по этому параметру. Впрочем, графический процессор TU116 благодаря усовершенствованной компрессии цвета работает с RAM более эффективно.
Поскольку ни тактовые частоты, ни конфигурация GPU у GeForce GTX 1660 и GTX 1660 Ti существенно не отличаются, а младшая модель вдобавок несет чипы RAM с более высоким энергопотреблением (по сравнению с GDDR6), два младших ускорителя семейства Turing характеризуются одинаковым резервом мощности — 120 Вт.
Прочие характеристики чипа TU116 в сравнении с полноценными представителями семейства Turing (TU106, TU104 и TU102) мы уже обсуждали в обзоре GeForce GTX 1660 Ti, но стоит заострить внимание на нескольких ключевых особенностях, которые роднят TU116 с его старшими аналогами или, наоборот, проводят между ними непреодолимую границу. В общей сложности, TU116 свойственны все нововведения, которые NVIDIA реализовала в архитектуре Turing, за исключением ядер, выполняющих Ray Tracing, и тензорных ядер, которые занимаются расчетами FMA (Fused-Multiply Add) над матрицами вещественных чисел половинной точности (FP16). Последние находят применение, в первую очередь, в задачах машинного обучения, когда GPU пропускает данные через нейронную сеть, предварительно сформированную локально или на удаленной ферме. Таким образом, GeForce GTX 1660 и GTX 1660 Ti одновременно лишились совместимости и с DXR (расширением Direct3D 12 для трассировки лучей), и с технологией DLSS, которая позволяет GPU выполнять рендеринг в сниженном разрешении с последующим масштабированием кадра силами нейросети.
Взамен тензорных блоков NVIDIA оснастила TU116 отдельным массивом 16-битных CUDA-ядер — они не обладают достаточным быстродействием для эффективной работы DLSS, но уже существуют игры, которые применяют операции половинной точности в шейдерных расчетах (например, Wolfenstein II: The New Colossus), за счет которых существенно увеличивается быстродействие подходящих GPU (сейчас это чипы Vega и Turing). В остальном, опять-таки, TU116 отличается от старших чипов своего семейства только количественным образом, обладает всеми оптимизациями конвейера, свойственными архитектуре Turing, и поддерживает проприетарные функции рендеринга — такие, как VRS (Variable Rate Shading).
|Производитель
|NVIDIA
|Модель
|GeForce GTX 1060 3 Гбайт
|GeForce GTX 1060 6 Гбайт
|GeForce GTX 1660
|GeForce GTX 1660 Ti
|GeForce RTX 2060
|GeForce RTX 2070
|Графический процессор
|Название
|GP106
|GP106
|TU116
|TU116
|TU106
|TU106
|Микроархитектура
|Pascal
|Pascal
|Turing
|Turing
|Turing
|Turing
|Техпроцесс, нм
|16 нм FinFET
|16 нм FinFET
|12 нм FFN
|12 нм FFN
|12 нм FFN
|12 нм FFN
|Число транзисторов, млн
|4 400
|4400
|6 600
|6 600
|10 800
|10 800
|Тактовая частота, МГц: Base Clock / Boost Clock
|1506/1708
|1506/1708
|1530/1785
|1500/1770
|1365/1680
|1 410 / 1 620 (Founders Edition: 1 410 / 1 710)
|Число шейдерных ALU
|1152
|1280
|1408
|1536
|1920
|2304
|Число блоков наложения текстур
|72
|80
|88
|96
|120
|144
|Число ROP
|48
|48
|48
|48
|48
|64
|Число тензорных ядер
|Нет
|Нет
|Нет
|Нет
|240
|288
|Число RT-ядер
|Нет
|Нет
|Нет
|Нет
|30
|36
|Оперативная память
|Разрядность шины, бит
|192
|192
|192
|192
|192
|256
|Тип микросхем
|GDDR5 SDRAM
|GDDR5 SDRAM
|GDDR5 SDRAM
|GDDR6 SDRAM
|GDDR6 SDRAM
|GDDR6 SDRAM
|Тактовая частота, МГц (пропускная способность на контакт, Мбит/с)
|2000 (8000) 2250 (9000)
|2000 (8000) 2250 (9000)
|2000 (8000)
|1 500 (12 000)
|1 750 (14 000)
|1 750 (14 000)
|Объем, Мбайт
|3 096
|6 144
|6 144
|6 144
|6 144
|8 192
|Шина ввода/вывода
|PCI Express 3.0 x16
|PCI Express 3.0 x16
|PCI Express 3.0 x16
|PCI Express 3.0 x16
|PCI Express 3.0 x16
|PCI Express 3.0 x16
|Производительность
|Пиковая производительность FP32, GFLOPS (из расчета максимальной указанной частоты)
|3935
|4372
|5027
|5437
|6451
|7 465 / 7 880 (Founders Edition)
|Производительность FP32/FP64
|1/32
|1/32
|1/32
|1/32
|1/32
|1/32
|Производительность FP32/FP16
|1/128
|1/128
|2/1
|2/1
|2/1
|2/1
|Пропускная способность оперативной памяти, Гбайт/с
|192/216
|192/216
|192
|288
|336
|448
|Вывод изображения
|Интерфейсы вывода изображения
|DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
|DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
|DL DVI-D, DisplayPort 1.4a, HDMI 2.0b
|DL DVI-D, DisplayPort 1.4a, HDMI 2.0b
|DL DVI-D, DisplayPort 1.4a, HDMI 2.0b
|DL DVI-D, DisplayPort 1.4a, HDMI 2.0b
|TBP/TDP, Вт
|120
|120
|120
|160
|175/185 (Founders Edition)
|Розничная цена (США, без налога), $
|199 (рекомендованная в момент выхода)
|249 (рекомендованная в момент выхода) / 299 (Founders Edition, nvidia.com)
|229 (рекомендованная)
|279 (рекомендованная)
|349 (рекомендованная) / 349 (Founders Edition, nvidia.com)
|499 (рекомендованная) / 599 (Founders Edition, nvidia.com)
|Розничная цена (Россия), руб.
|НД
|НД (рекомендованная в момент выхода) / 22 990 (Founders Edition, nvidia.ru)
|17 990 (рекомендованная)
|22 990 (рекомендованная)
|НД (рекомендованная) / 31 990 (Founders Edition, nvidia.ru)
|НД (рекомендованная) / 47 990 (Founders Edition, nvidia.ru)
GeForce GTX 1660 можно назвать уже третьим по счету (после RTX 2060 и GTX 1660 Ti) наследником основной видеокарты среднего ценового диапазона в семействe Pascal — GeForce GTX 1060. Но если закрыть глаза на объем RAM, то по месту в модельном ряду новинку стоит приравнять к варианту GeForce GTX 1060 с 3 Гбайт оперативной памяти. По сравнению с последним GTX 1660 не только располагает вдвое увеличенным кадровым буфером, но и по теоретической пропускной способности шейдерных операций превосходит старую модель на 27 % — так же, как GTX 1660 Ti превосходит на 24 % полноценную модификацию GTX 1060 с 6 Гбайт RAM. При этом NVIDIA не отказывается от ценовой политики, заданной видеокартами семейства GeForce RTX 20, в рамках которой все новые устройства обходятся покупателю дороже, чем их прямые аналоги по модельным номерам из прошлого поколения. Вот и GeForce GTX 1660 поступил в продажу по рекомендованной стоимости $229, хотя GeForce GTX 1060 с 3 Гбайт RAM стартовал на отметке $199.
Глядя на ценник новинки, в очередной раз можно было бы возмутиться алчности NVIDIA, если бы не слабость действующих предложений AMD, которая с пришествием архитектуры Turing распространилась из верхнего в средний ценовой сегмент. Так, самые доступные модификации Radeon RX 590 (по цене от $240 на площадке newegg.com) в данный момент стоят дороже, чем GeForce GTX 1660, а на российском рынке рекомендация NVIDIA (17 990 руб) поместила GTX 1660 в нижнюю часть диапазона, который занимает продукт AMD (от 17 940 руб по данным market.yandex.ru).
В отличие от других ускорителей на чипах Turing, включая GeForce GTX 1660 Ti, у GTX 1660 нет прямых соперников в собственном лагере. Ближайшие по спецификациям и быстродействию модели 10-й серии — GeForce GTX 1060 6 Гбайт и GeForce GTX 1070 — далеко отстоят от новинки по цене, хотя первый (а GTX 1060 сейчас продают по ценам от $209 или 14 590 руб) все-таки будет оттягивать на себя часть потенциальных покупателей, пока не иссякнут запасы старого железа NVIDIA, накопленные в период криптовалютного бума.
⇡#
**GIGABYTE GeForce GTX 1660 OC: конструкция**
Первое впечатление о новой графической карте нижней и средней ценовой категории (да, впрочем, и о дорогих моделях тоже), лучше всего составить на примере простой модификации, ведь именно такие востребованы больше всего — в отличие от «премиальных» версий на основе того же GPU, которые по цене нередко проникают в диапазон ближайшей из старших моделей. В этом смысле нам снова повезло, ведь GeForce GTX 1660 представляет устройство GIGABYTE, выпущенное за рамками известных серий WINDFORCE и AORUS. Вы не ошибетесь, узнав по фотографиям ту же видеокарту, которую мы протестировали тремя неделями раньше в обзоре GeForce GTX 1660 Ti — используется та же печатная плата и охлаждение, но с иным GPU и микросхемами GDDR5 вместо GDDR6.
GPU на плате GIGABYTE GeForce GTX 1660 OC предварительно разогнан. Пусть точных данных о его паспортных частотах мы не узнаем вплоть до публикации статьи, когда производитель выложит описание новинок на собственном сайте, уже по скромной системе охлаждения видно, что оверклокинг здесь чисто символический. Да и старшую модель GIGABYTE разогнал всего лишь на 30 МГц.
В конструкции GIGABYTE GeForce GTX 1660 OC всюду заметны признаки экономии. Видеокарта лишена даже простейшей подсветки, не говоря уже об RGB-светодиодах с настраиваемым оттенком и возможностью подключения светодиодных лент. Кожух, который целиком сделан из пластика, охватывает печатную плату с трех сторон, скрывая компактные размеры PCB.
Система охлаждения тоже устроена чрезвычайно просто: тепло графического процессора и микросхем RAM рассеивает алюминиевый радиатор, а единственная медная деталь — это тепловая трубка, пропущенная сквозь его основание. Впрочем, кулер GIGABYTE GeForce GTX 1660 OC не лишен отдельных усовершенствований. Так, в радиаторе предусмотрен выступ, контактирующий с полевыми транзисторами и дросселями регулятора напряжения, а два вентилятора диаметром 87 мм вращаются в противоположные стороны — таким образом снижается турбулентность воздушного потока.
Комплектация GIGABYTE GeForce GTX 1660 OC аскетична настолько, насколько это в принципе возможно: помимо самой видеокарты, в коробке есть только бумажная инструкция и диск с ПО.
⇡#
**GIGABYTE GeForce GTX 1660 OC: печатная плата**
На основе печатной платы, которая используется в GeForce GTX 1660, GIGABYTE уже произвела массу других устройств, начиная с GeForce GTX 1660 Ti и заканчивая GeForce RTX 2070. В этом спектре моделей различные графические процессоры (TU116, TU106) и микросхемы RAM двух типов (GDDR5 и GDDR6) являются электрически совместимыми, а небольшие габариты PCB позволили выпустить как устройства стандартных габаритов, так и компактные видеокарты форм-фактора Mini ITX.
Эта печатная плата может принять компоненты для восьми фаз регулятора напряжения, но энергопотребление устройств на основе TU116 и TU106 лежит в пределах от 120 до 175 Вт (по референсным спецификациям), поэтому младший ускоритель довольствуется шестифазным VRM: четыре фазы обслуживают графический процессор и две — микросхемы оперативной памяти. В силу родства со старшими моделями семейства Turing новинка оснащена полевыми транзисторами с интегрированным драйвером (т. н. DrMOS или «силовые каскады» — power stages), которые обеспечивают высокий КПД и позволяют ШИМ-контроллеру VRM с высокой точностью регистрировать напряжение на стоке транзисторов.
Хотя контроллер дисплея в составе TU116 совместим с интерфейсом DVI, GIGABYTE сделала выбор в пользу трех разъемов DisplayPort и единственного выхода HDMI. А вот интерфейса USB 3.1 Gen 2 с поддержкой протокола DisplayLink и GeForce GTX 1660, и GTX 1660 Ti принципиально лишены. Контактные площадки для мониторинга напряжений и аппаратного вольтмода, резервная микросхема BIOS и другая подобная роскошь здесь тоже, разумеется, отсутствует.
⇡#
**Тестовый стенд, методика тестирования**
|Тестовый стенд
|CPU
|Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
|Материнская плата
|ASUS MAXIMUS XI APEX
|Оперативная память
|G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 x 8 Гбайт (3200 МГц, CL14)
|ПЗУ
|Intel SSD 760p, 1024 Гбайт
|Блок питания
|Corsair AX1200i, 1200 Вт
|Система охлаждения CPU
|Corsair Hydro Series H115i
|Корпус
|CoolerMaster Test Bench V1.0
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|ПО для GPU AMD
|Все видеокарты
|AMD Radeon Software Adrenalin 2019 Edition 19.2.3
|ПО для GPU NVIDIA
|Все видеокарты
|NVIDIA GeForce Game Ready Driver 419.35 Beta
|Синтетические тесты 3D-графики
|Тест
|API
|Разрешение
|Полноэкранное сглаживание
|3DMark Fire Strike 1.1
|DirectX 11 (feature level 11_0)
|1920 × 1080
|Выкл.
|3DMark Fire Strike 1.1 Extreme
|2560 × 1440
|3DMark Fire Strike 1.1 Ultra
|3840 × 2160
|3DMark Time Spy 1.1
|DirectX 12 (feature level 11_0)
|2560 × 1440
|3DMark Time Spy Extreme 1.1
|3840 × 2160
|Игровые тесты
|Игра (в порядке даты выхода)
|API
|Настройки, метод тестирования
|Полноэкранное сглаживание
|1920 × 1080 / 2560 × 1440
|Grand Theft Auto V
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|MSAA 4x + FXAA + Reflection MSAA 4x
|Ashes of the Singularity: Escalation
|Vulkan
|Встроенный бенчмарк. Макс. качество графики
|MSAA 4x + TAA 4x
|Total War: WARHAMMER II, встроенный бенчмарк
|DirectX 12
|Встроенный бенчмарк (Battle Benchmark). Макс. качество графики
|MSAA 4x
|Wolfenstein II: The New Colossus
|Vulkan
|OCAT, миссия Roswell. Макс. качество графики. Deferred Rendering, GPU Culling, Adaptive Shading — выкл.
|TSSAA (8TX)
|Final Fantasy XV
|DirectX 11
|Встроенный бенчмарк + OCAT. Макс. качество графики. GameWorks выкл., DLSS выкл.
|TAA
|Far Cry 5
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|TAA
|Strange Brigade
|Vulkan
|Встроенный бенчмарк. Макс. качество графики
|AA Ultra
|Shadow of the Tomb Raider
|DirectX 12
|Встроенный бенчмарк. Макс. качество графики
|SMAA 4x
|Assassin's Creed Odyssey
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|TAA High
|Battlefield V
|DirectX 12
|OCAT, миссия Liberte. Макс. качество графики. DXR выкл., DLSS выкл.
|TAA High
|Metro Exodus
|DirectX 12
|Встроенный бенчмарк. Макс. качество графики. DXR выкл., DLSS выкл.
|TAA
|DiRT Rally 2.0
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|MSAA 4x + TAA
В большинстве тестовых игр показатели средней и минимальной кадровых частот выводятся из массива времени рендеринга индивидуальных кадров, который записывает встроенный бенчмарк (или утилита OCAT, если его нет).
Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел выбирается значение, соответствующее 1-му процентилю распределения.
Исключениям из этой методики являются игры DiRT Rally 2.0, Far Cry 5 и Wolfenstein II: The New Colossus. Встроенный бенчмарк DiRT Rally 2.0 не записывает время рендеринга отдельных кадров — файл с результатами содержит среднюю частоту смены кадров и минимальную, рассчитанную по максимальному времени кадра. Встроенный бенчмарк Far Cry 5 записывает количество кадров в отдельную секунду теста, поэтому среднее FPS рассчитывается исходя из этих чисел, а не по среднему времени рендеринга кадра.
Для тестирования в Wolfenstein II мы используем OCAT, но в этой игре утилита не сохраняет журнал рендеринга отдельных кадров. Здесь в качестве минимального FPS используется число, которое OCAT выводит на экран, обратное 99-му процентилю времени кадра.
|Вычисления общего назначения, кодирование/декодирование видео
|Программа
|Настройки
|AMD
|NVIDIA
|Adobe Premier CC 2019
|Рендеринг и кодирование 8К-видео
|Экспорт в H.265 (HEVC) 8K@24p
|Blender 2.8 Beta, Cycles Render
|Classroom Demo
|—
|CompuBench 2.0
|Ocean Surface Simulation
|—
|N-Body Simulation 1024K
|—
|DXVA Checker 4.1.2, Decode Benchmark
|H.264
|1920 × 1080 (High Profile, L4.1), 3840 × 2160 (High Profile, L5.1). Microsoft H264 Video Decoder
|H.265
|1920 × 1080 (Main Profile, L4.0), 3840 × 2160 (Main Profile, L5.0), 7680 × 4320 (Main Profile, L6.0). Microsoft HEVC Video Extensions
|VP9
|1920 × 1080, 3840 × 2160, 7680 × 4320. Microsoft VP9 Video Extensions
|Ffmpeg 4.0.2, кодирование H.264
|1920 × 1080
|-c:v h264_amf -quality speed -coder cabac -level 4.1 -refs 1 -b:v 3M
|-c:v h264_nvenc -preset fast -coder cabac -level 4.1 -refs 1 -b:v 3M
|3840 × 2160
|-c:v h264_amf -quality speed -coder cabac -level 5.1 -refs 1 -b:v 7.5M
|-c:v h264_nvenc -preset fast -coder cabac -level 5.1 -refs 1 -b:v 7.5M
|Ffmpeg 4.0.2, кодирование H.265
|1920 × 1080
|-c:v hevc_amf -quality speed -level 4 -b:v 3M
|-c:v hevc_nvenc -preset fast -level 4 -b:v 3M
|3840 × 2160
|-c:v hevc_amf -quality speed -level 5 -b:v 7.5M
|-c:v hevc_nvenc -preset fast -level 5 -b:v 7.5M
|7680 × 4320
|—
|-c:v hevc_nvenc -preset fast -level 6 -refs 1 -b:v 20M
|LuxMark 3.1
|Hotel Lobby (Complex Benchmark)
|—
|SiSoftware Sandra Titanium (2018) SP3b
|GPGPU Processing
|OpenCL (FP16/FP32/FP64)
|CUDA (FP16/FP32/FP64)
|GPGPU Scientific Analysis
Мощность видеокарт регистрируется отдельно от CPU и прочих компонентов ПК с помощью амперметра MingHe VAC-1050A. Чтобы одновременно измерить ток, проходящий по разъемам дополнительного питания и слоту материнской платы, видеокарта подключается через жесткий райзер PCI Express x16, в котором линии питания разорваны и выведены на отдельный кабель.
В качестве тестовой нагрузки для измерения мощности и уровня шума используется игра Crysis 3 при разрешении 3840 × 2160 без полноэкранного сглаживания и максимальных параметрах качества графики, а также стресс-тест FurMark с наиболее агрессивными настройками (разрешение 3840 × 2160, MSAA 8x). Замеры всех параметров выполняются после прогрева видеокарты, когда температура GPU и тактовые частоты стабилизируются.
В тестировании производительности приняли участие следующие видеокарты:
⇡#
**Тактовые частоты, энергопотребление, температура, разгон**
GIGABYTE GeForce GTX 1660 OC — это, по сути, та же самая видеокарта, которая фигурирует в нашем обзоре GeForce GTX 1660 Ti, только с урезанным GPU. Обе модели предварительно разогнаны относительно референсных параметров, но в остальном мы оказались в идеальной ситуации, чтобы сравнить между собой «обычный» GTX 1660 и версию Ti.
Графический процессор TU116 в составе GeForce GTX 1660 лишился 8 % основных вычислительных ресурсов (шейдерных ALU и блоков наложения текстур), но устойчивая частота под нагрузкой здесь, наоборот, выше — на 65 МГц. Но у двух видеокарт есть и другие, подчас неочевидные, различия. Старшая и младшая модификации GTX 1660 обладают почти одинаковой потребляемой мощностью, но дело вовсе не в тактовых частотах. Чипы GDDR5 в составе «простого» GTX 1660 нуждаются в повышенном напряжении питания по сравнению с GDDR6, и вольтаж GPU здесь тоже увеличен — похоже, отбраковка кристаллов TU116 для GTX 1660 идет не только по числу активных SM, но и по напряжению, которое требуется для поддержания заданных тактовых частот. Неспроста жесткий лимит мощности у GTX 1660, как показывает FurMark, установлен на более высоком уровне.
Кстати, вручную увеличить резерв энергопотребления GIGABYTE GeForce GTX 1660 OC уже невозможно, но это нисколько не ограничивает оверклокинг. Предельная базовая частота для обеих видеокарт, как нарочно, составляет 1660 МГц, а под нагрузкой разгон позволил выиграть дополнительные 116 МГц. Однако напряжение питания GPU в таких условиях достигает программного лимита в 1,044 В, который характерен для всех видеокарт на чипах Turing, и кратковременно даже превосходит это значение.
|Рабочие параметры под нагрузкой (Crysis 3)
|Видеокарта
|Настройки
|Тактовая частота GPU, МГц
|Напряжение питания GPU, В
|Частота вращения вентиляторов, об/мин (% от макс.)
|Частота вращения вентиляторов 2, об/мин (% от макс.)
|Средн.
|Макс.
|Предел
|Средн.
|Макс.
|Предел
|Средн.
|Средн.
|GIGABYTE GeForce GTX 1660 OC (1530/8000 МГц, 6 Гбайт)
|1935
|1935
|1995
|1,031
|1,031
|1,044
|1915 (69%)
|НД
|GIGABYTE GeForce GTX 1660 OC (1660/9500 МГц, 6 Гбайт)
|2051
|2055
|2115
|1,043
|1,050
|1,044
|2033 (73%)
|НД
|GIGABYTE GeForce GTX 1660 Ti (1500/12000 МГц, 6 Гбайт)
|1870
|1905
|1980
|0,939
|0,975
|1,044
|1950 (64%)
|НД
|GIGABYTE GeForce GTX 1660 Ti (1660/15000 МГц, 6 Гбайт)
|+25% TDP
|2038
|2055
|2130
|0,979
|1,000
|1,044
|2254 (74%)
|НД
|NVIDIA GeForce RTX 2060 FE (1365/14000 МГц, 6 Гбайт)
|1836
|1875
|1950
|0,991
|1,031
|1,044
|1661 (45%)
|1661 (45%)
|ASUS GeForce GTX 1060 OC (1506/9028 МГц, 6 Гбайт)
|1848
|1848
|1898
|1,050
|1,050
|1,062
|1431 (39%)
|НД
|NVIDIA GeForce GTX 1070 FE (1506/8008 МГц, 8 Гбайт)
|1775
|1823
|1911
|0,995
|1,043
|1,100
|1898 (47%)
|НД
|AMD Radeon RX 580 (1340/8000 МГц, 8 Гбайт)
|WattMan: Balanced
|1340
|1340
|1340
|1,072
|1,081
|1,150
|1714 (52%)
|НД
|SAPPHIRE NITRO+ Radeon RX 590 SE(1545/8000 МГц, 8 Гбайт)
|WattMan: Balanced, Silent UEFI
|1543
|1545
|1545
|1,140
|1,181
|1,150
|1252 (28%)
|НД
*Прим.:* * измерение всех параметров выполняется после прогрева GPU и стабилизации тактовых частот.*
Благодаря тому, что контроллеры RAM в процессоре TU116 рассчитаны на высокие частоты микросхем GDDR6, GTX 1660 позволяет эффективно разгонять чипы GDDR5. У нашего экземпляра оперативную память удалось запустить на эффективной частоте 9,5 ГГц, таким образом увеличив ПСП на внушительные 19 %.
В результате оверклокинга GPU и RAM потребляемая мощность GIGABYTE GeForce GTX 1660 OC в Crysis 3 увеличилась на 14 Вт, но в абсолютных значениях устройство всего лишь вышло на уровень GeForce GTX 1060. Главное, что основным соперникам новинки подобная энергоэффективность не светит — в особенности это касается Radeon RX 590, который, невзирая на техпроцесс 12 нм, потребляет на сотню ватт больше разогнанного GTX 1660 даже при штатных частотах.
Ни GTX 1660, ни родственная модель с пометкой Ti производства GIGABYTE не являются особенно тихими видеокартами. Даже референсная версия Radeon RX 580 с кулером-турбинкой оказалась тише — вот результат экономии на системе охлаждения, которой производитель выделил единственную тепловую трубку.
Результаты синтетических тестов зачастую расходятся с показателями быстродействия в реальных играх, особенно когда идет сравнение GPU различной архитектуры. Но в случае ускорителей на чипах Turing синтетика демонстрирует важную тенденцию: новое поколение чипов NVIDIA одинаково хорошо справляется с вычислениями под Direct3D 11 и 12, чего не скажешь об архитектуре Pascal, которая отдает предпочтение устаревшему API. Именно из-за тестов под Direct3D 11 в совокупности результатов GeForce GTX 1660 лишь на 11 % превосходит GeForce GTX 1060. С другой стороны, GTX 1660 настолько хорошо выступил в бенчмарках под Direct3D 12, что порой приближается к GeForce GTX 1070 на расстояние 3 % (хотя по усредненной разнице последний сохраняет преимущество в 24 %).
Положение GeForce GTX 1660 относительно других моделей семейства Turing уже мало зависит от избранного API. Так, GeForce RTX 2060 опередил новинку на 41 %, а GTX 1660 Ti — на 15 %. Впрочем, разгон позволяет сократить до минимума дистанцию между младшей и старшей модификациями GTX 1660.
Radeon RX 580 и RX 590 ничуть не уступают новинке в тестах под Direct3D 11, а при высоком разрешении превосходят ее на 20–31 % баллов. Но тесты под Direct3D 12 расставили все по местам: по общим результатам GeForce GTX 1660 на 4 % обошел Radeon RX 580, но Radeon RX 590 уступил 5 %.
Благодаря тому, что большинство тестовых игр работают под API Direct3D 12, соотношение результатов между GeForce GTX 1660 и видеокартами предыдущего поколения сдвинуто в пользу новой модели. Так, GeForce GTX 1070 лишь на 15 % превосходит GTX 1660, а преимущество последнего перед GTX 1060 и Radeon RX 580 составляет 16 и 19 % соответственно. Даже Radeon RX 590 уступает новинке 8 % по средней частоте смены кадров. Есть лишь три игры, в которых старший Polaris взял верх — это Ashes of the Singularity: Escalation, Strange Brigade и Wolfenstein II: The New Colossus.
В рамках семейства Turing разница между GeForce GTX 1660 и модификацией Ti составляет 15 %, как и в 3DMark, а вот GTX 2060 при низком разрешении экрана не может работать в полную силу и в результате опережает GTX 1660 лишь на 35 %.
Разгон GeForce GTX 1660 даже в режиме 1080p достаточно эффективен благодаря значительному росту частоты памяти и увеличивает среднюю частоту смены кадров на 11 %.
Смена разрешения на 1440p не так сильно повлияла на загрузку функциональных блоков GPU, чтобы позиции соперников существенно изменились по сравнению с тем, что мы уже увидели в режиме 1080p. В то же время объем оперативной памяти 6 Гбайт, которым оснащается большинство видеокарт NVIDIA в этом обзоре, удовлетворяет запросам всех тестовых игр, а 8 Гбайт RAM не дают никаких преимуществ GeForce GTX 1070 и двум ускорителям AMD на чипах Polaris.
Тем не менее, в процентном соотношении между различными моделями произошли определенные подвижки. Так, GPU с широким конвейером в составе GeForce GTX 1070 и RTX 2060 позволил увеличить отрыв этих моделей от GTX 1660 с 15 до 17 и с 35 до 37 % соответственно, да и GTX 1660 Ti при разрешении 1440p оказался на 17 % быстрее своего младшего родственника. Впрочем, разгон увеличил средний результат GeForce GTX 1060 на 12 %.
А вот у Radeon RX 580 и RX 590 нет шансов на равную борьбу с новинкой NVIDIA — на стороне GTX 1660 существенное преимущество в 18 и 7 % средней частоты смены кадров. В то же время и разница между GTX 1060 и GTX 1660 по-прежнему составляет 16 %.
⇡#
**Вычисления общего назначения**
На первый взгляд, в приложениях GP-GPU два ускорителя на чипе TU116 не должны особенно отличаться друг от друга в силу того, как бережно NVIDIA отнеслась к формуле вычислительных блоков младшей модели. Но в действительности, GTX 1660 и GTX 1660 Ti сближаются только в задачах трассировки лучей (тесты Blender и LuxMark), а в остальных тестах GTX 1660 тянет вниз сравнительно небольшая пропускная способность RAM. Так, в Adobe Premiere и CompuBench CL новинка продемонстрировала совсем небольшое преимущество перед GeForce GTX 1060 или даже проиграла последнему (в пределах погрешности измерения).
Несмотря на это, GeForce GTX 1660 выгодно смотрится на фоне графических карт AMD: Radeon RX 580 и RX 590 одержали верх только в бенчмарке CompuBench CL, а по результатам синтетических тестов пакета SiSoftware Sandra новинка заняла место в промежутке между соперниками. Но у GTX 1660 есть важное преимущество в пропускной способности операций над вещественными числами половинной точности (FP16). Причем графические процессоры Turing умеют выполнять их параллельно с расчетами FP32 за счет выделенного массива 16-битных CUDA-ядер (TU116) или тензорных ядер (старшие чипы этой архитектуры).
⇡#
**Кодирование/декодирование видео**
В GPU семейства Turing интегрирован один и тот же блок NVENC/NVDEC, выполняющий кодирование и декодирование видеопотока форматов H.264, HEVC и VP9. Быстродействие декодера и кодировщика стандарта HEVC разработчики NVIDIA увеличили вдвое по сравнению с прошлой версией ASIC в чипах Pascal. В этой области ускорители AMD на чипах Polaris не идут ни в какое сравнение с GTX 1660 и, к тому же, не умеют декодировать записи VP9 силами выделенного мультимедийного блока.
⇡#
**Результаты всех игровых тестов и 3DMark**
|3DMark (Graphics Score)
|Разрешение
|GIGABYTE GeForce GTX 1660 OC (1530/8000 МГц, 6 Гбайт)
|GIGABYTE GeForce GTX 1660 OC (1660/9500 МГц, 6 Гбайт)
|GIGABYTE GeForce GTX 1660 Ti OC (1500/12000 МГц, 6 Гбайт)
|NVIDIA GeForce RTX 2060 FE (1365/14000 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1060 (1506/9028 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1070 (1506/8008 МГц, 8 Гбайт)
|AMD Radeon RX 580 (1340/8000 МГц, 8 Гбайт)
|AMD Radeon RX 590 (1545/8000 МГц, 8 Гбайт)
|Fire Strike
|1920 × 1080
|14210
|15911
|16483
|19756
|13162
|17927
|14912
|16410
|Fire Strike Extreme
|2560 × 1440
|6430
|7170
|7484
|9058
|6197
|8380
|6522
|7160
|Fire Strike Ultra
|3840 × 2160
|2749
|3097
|3230
|4187
|3001
|4154
|3291
|3594
|Time Spy
|2560 × 1440
|5565
|6149
|6292
|7549
|4215
|5815
|4228
|4753
|Time Spy Extreme
|3840 × 2160
|2479
|2771
|2829
|3434
|1924
|2698
|1900
|2089
|Макс.
|+13%
|+17%
|+52%
|+9%
|+51%
|+20%
|+31%
|Средн.
|+12%
|+15%
|+41%
|−10%
|+24%
|−4%
|+5%
|Мин.
|+10%
|+13%
|+36%
|−24%
|+4%
|−24%
|−16%
|1920 × 1080
|Полноэкранное сглаживание
|GIGABYTE GeForce GTX 1660 OC (1530 / 8000 МГц, 6 Гбайт)
|GIGABYTE GeForce GTX 1660 OC (1660 / 9500 МГц, 6 Гбайт)
|GIGABYTE GeForce GTX 1660 Ti OC (1500 / 12000 МГц, 6 Гбайт)
|NVIDIA GeForce RTX 2060 FE (1365 / 14000 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1060 (1506 / 9028 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1070 (1506 / 8008 МГц, 8 Гбайт)
|AMD Radeon RX 580 (1340 / 8000 МГц, 8 Гбайт)
|AMD Radeon RX 590 (1545 / 8000 МГц, 8 Гбайт)
|Ashes of the Singularity: Escalation
|MSAA 4x + TAA 4x
|20 / 29
|23 / 33
|22 / 34
|27 / 40
|19 / 27
|24 / 36
|19 / 28
|21 / 30
|Assassin's Creed Odyssey
|TAA High
|44 / 51
|47 / 53
|41 / 52
|47 / 61
|35 / 41
|42 / 51
|30 / 35
|33 / 42
|Battlefield V
|TAA High
|74 / 93
|81 / 100
|87 / 106
|101 / 121
|62 / 80
|85 / 105
|70 / 83
|76 / 89
|DiRT Rally 2.0
|MSAA 4x + TAA
|40 / 56
|43 / 61
|45 / 63
|52 / 74
|31 / 46
|45 / 62
|36 / 44
|40 / 49
|Far Cry 5
|TAA
|75 / 83
|84 / 93
|87 / 97
|98 / 110
|65 / 72
|87 / 95
|63 / 70
|72 / 79
|Final Fantasy XV Windows Edition
|TAA
|43 / 59
|48 / 66
|53 / 69
|60 / 81
|40 / 51
|53 / 68
|34 / 48
|12 / 48
|Grand Theft Auto V
|MSAA 4x + FXAA + Reflection MSAA 4x
|38 / 61
|42 / 68
|45 / 72
|49 / 82
|38 / 58
|50 / 76
|32 / 43
|35 / 48
|Metro Exodus
|TAA
|17 / 29
|19 / 33
|20 / 34
|24 / 41
|15 / 26
|20 / 36
|14 / 25
|15 / 27
|Shadow of the Tomb Raider
|SMAA 4x
|39 / 47
|43 / 53
|40 / 55
|51 / 64
|30 / 39
|41 / 53
|26 / 37
|30 / 41
|Strange Brigade
|AA Ultra
|74 / 91
|83 / 102
|86 / 108
|103 / 130
|64 / 78
|87 / 107
|66 / 90
|71 / 98
|Total War: WARHAMMER II
|MSAA 4x
|21 / 26
|24 / 29
|23 / 30
|29 / 36
|19 / 24
|23 / 32
|18 / 22
|21 / 24
|Wolfenstein II: The New Colossus
|TSSAA (8TX)
|95 / 114
|109 / 130
|111 / 133
|127 / 154
|73 / 85
|94 / 111
|88 / 107
|98 / 117
|Макс.
|+14%
|+19%
|+43%
|−5%
|+25%
|−1%
|+8%
|Средн.
|+11%
|+15%
|+35%
|−14%
|+15%
|−16%
|−8%
|Мин.
|+4%
|+2%
|+20%
|−25%
|−3%
|−31%
|−21%
|2560 × 1440
|Полноэкранное сглаживание
|GIGABYTE GeForce GTX 1660 OC (1530 / 8000 МГц, 6 Гбайт)
|GIGABYTE GeForce GTX 1660 OC (1660 / 9500 МГц, 6 Гбайт)
|GIGABYTE GeForce GTX 1660 Ti OC (1500 / 12000 МГц, 6 Гбайт)
|NVIDIA GeForce RTX 2060 FE (1365 / 14000 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1060 (1506 / 9028 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1070 (1506 / 8008 МГц, 8 Гбайт)
|AMD Radeon RX 580 (1340 / 8000 МГц, 8 Гбайт)
|AMD Radeon RX 590 (1545 / 8000 МГц, 8 Гбайт)
|Ashes of the Singularity: Escalation
|MSAA 4x + TAA 4x
|16 / 23
|17 / 26
|19 / 27
|21 / 32
|16 / 22
|19 / 29
|16 / 22
|17 / 24
|Assassin's Creed Odyssey
|TAA High
|35 / 39
|36 / 40
|37 / 44
|40 / 50
|27 / 32
|36 / 43
|26 / 29
|24 / 33
|Battlefield V
|TAA High
|55 / 69
|62 / 77
|65 / 80
|76 / 92
|44 / 59
|63 / 78
|51 / 60
|55 / 65
|DiRT Rally 2.0
|MSAA 4x + TAA
|32 / 42
|35 / 46
|36 / 47
|43 / 55
|25 / 34
|35 / 47
|28 / 33
|31 / 37
|Far Cry 5
|TAA
|52 / 57
|58 / 64
|60 / 67
|71 / 78
|44 / 49
|59 / 66
|45 / 50
|50 / 56
|Final Fantasy XV Windows Edition
|TAA
|30 / 41
|34 / 47
|38 / 49
|44 / 58
|28 / 36
|37 / 49
|26 / 34
|8 / 35
|Grand Theft Auto V
|MSAA 4x + FXAA + Reflection MSAA 4x
|27 / 42
|31 / 48
|33 / 51
|38 / 58
|27 / 40
|35 / 53
|23 / 31
|25 / 34
|Metro Exodus
|TAA
|14 / 23
|16 / 26
|17 / 27
|20 / 33
|12 / 21
|17 / 28
|12 / 21
|13 / 23
|Shadow of the Tomb Raider
|SMAA 4x
|25 / 30
|28 / 34
|29 / 35
|34 / 41
|20 / 25
|28 / 34
|19 / 25
|21 / 27
|Strange Brigade
|AA Ultra
|54 / 62
|61 / 70
|64 / 75
|76 / 90
|45 / 54
|62 / 73
|49 / 63
|54 / 69
|Total War: WARHAMMER II
|MSAA 4x
|14 / 17
|15 / 19
|17 / 20
|20 / 24
|13 / 16
|17 / 21
|12 / 14
|13 / 16
|Wolfenstein II: The New Colossus
|TSSAA (8TX)
|63 / 77
|70 / 87
|75 / 88
|88 / 104
|51 / 59
|68 / 79
|60 / 71
|65 / 78
|Макс.
|+15%
|+21%
|+45%
|−4%
|+26%
|+2%
|+11%
|Средн.
|+12%
|+17%
|+37%
|−13%
|+17%
|−14%
|−7%
|Мин.
|+3%
|+12%
|+28%
|−23%
|+3%
|−26%
|−19%
NVIDIA планомерно выпускает графические карты на чипах архитектуры Turing в течение последних шести месяцев. В моделях под маркой RTX на первый план вышли новые функции рендеринга, а соотношение цены и быстродействия в стандартных играх без трассировки лучей, в лучшем случае, не изменилось по сравнению с прошлым поколением. И напротив, в серии GeForce 16, которая занимает промежуточное положение между GeForce 10 и GeForce 20, NVIDIA предложила доступные решения, способные эффективно конкурировать с устройствами AMD на чипах Polaris и остатками старых «зеленых» видеокарт в диапазоне от GTX 1060 3 Гбайт до GTX 1070.
Впрочем, GeForce GTX 1660 Ti стоит рассматривать как соперника Radeon RX Vega 56, нежели Radeon RX 590, а вот для GTX 1660 именно старший Polaris стал подходящей мишенью. По совокупности результатов в тестовых играх новинка NVIDIA превосходит Radeon RX 590 на 7–8 %, а по рекомендованной цене в долларах США GeForce GTX 1660 позиционируется ниже, чем самые доступные модификации RX 590. В России устройства NVIDIA и AMD пока находятся на одном уровне, но если GTX 1660 повторит динамику модификации Ti, то Radeon RX 590 ждет поражение не только по быстродействию, но и по цене, не говоря уже об энергопотреблении, которое у видеокарты AMD вдвое (!) выше.
Единственное достоинство Radeon RX 590 в долговременной перспективе заключается в двух «лишних» гигабайтах RAM, без которых GeForce GTX 1660 сойдет с дистанции раньше соперника. Впрочем, для GTX 1660 и GTX 1660 Ti эта угроза далеко не столь актуальна, как для GeForce RTX 2060.
Благодаря высокой энергоэффективности у GeForce GTX 1660 есть еще одно преимущество: даже самые недорогие модификации ускорителя — такие, как плата GIGABYTE GeForce GTX 1660 OC — обеспечивают чипу TU116 качественное охлаждение с приемлемым уровнем шума. Конечно, более изысканные модели (у которых хотя бы есть больше одной тепловой трубки в радиаторе!) заведомо тише и наверняка позволяют лучше разогнать GPU, но когда речь идет о доступных видеокартах, приветствуется возможность сэкономить деньги без ущерба для главных рабочих характеристик. |
984,218 | Обзор и тестирование материнской платы ASUS Prime Z390-A | В ассортименте компании ASUS насчитывается сразу 19 материнских плат на наборе системной логики Intel Z390. Потенциальный покупатель может выбирать как из моделей элитной серии ROG или сверхнадёжной TUF, так и из Prime, отличающейся более демократичными ценами. Поступившая к нам на тестирование плата как раз относится к последней серии и даже в России стоит немногим более 12 тысяч рублей, что для решений на чипсете Intel Z390 сравнительно недорого. Речь пойдёт о модели ASUS Prime Z390-A.
Имея на своём борту всё необходимое для создания игровой системы или производительной рабочей станции, плата всё же слегка упрощена разработчиками — это коснулось почти всего, начиная с цепи питания процессора и заканчивая портами. При этом все возможности по разгону процессора и оперативной памяти у ASUS Prime Z390-A есть. Подробнее обо всём этом мы расскажем вам в данном материале.
Технические характеристики и стоимость
|
Поддерживаемые процессоры |Процессоры Intel Core i9 / Core i7 / Core i5 / Core i3 / Pentium / Celeron
в исполнении LGA1151 восьмого и девятого поколения микроархитектуры Core
|
Чипсет |Intel Z390 Express
|
Подсистема памяти |4 × DIMM DDR4 небуферизованной памяти объёмом до 64 Гбайт;
двухканальный режим работы памяти;
поддержка модулей с частотой 4266(O.C.)/4133(O.C.)/4000(O.C.)/3866(O.C.)/3733(O.C.)/
3600(O.C.)/3466(O.C.)/3400(O.C.)/3333(O.C.)/3300(O.C.)/3200(O.C.)/3100(O.C.)/
3066(O.C.)/3000(O.C.)/2800(O.C.)/2666/2400/2133 МГц;
поддержка Intel XMP (Extreme Memory Profile)
|
Графический интерфейс |Интегрированное графическое ядро процессора позволяет использовать порты HDMI и DisplayPort;
поддерживаются разрешения до 4K включительно (4096 × 2160 при 30 Гц);
максимальный объём разделяемой памяти – 1 Гбайт;
поддержка технологий Intel InTru 3D, Quick Sync Video, Clear Video HD Technology, Insider
|
Разъёмы для плат расширения |2 слота PCI Express x16 3.0, режимы работы x16, x8/x8, x8/x4+x4 и x8+x4+x4/х0;
1 слот PCI Express x16 (в режиме х4), Gen 3;
3 слота PCI Express x1, Gen 3
|
Масштабируемость видеоподсистемы |NVIDIA 2-way SLI Technology;
AMD 2-way/3-way CrossFireX Technology
|
Интерфейсы накопителей |Чипсет Intel Z390 Express:
– 6 × SATA 3, пропускная способность до 6 Гбит/с;
– поддержка RAID 0, 1, 5 и 10, Intel Rapid Storage, Intel Smart Connect Technology и Intel Smart Response, NCQ, AHCI и Hot Plug;
– 2 × M.2, пропускная способность каждого до 32 Гбит/с (M.2_1 поддерживает только PCI Express-накопители длиной от 42 до 110 мм, M.2_2 поддерживает SATA- и PCI Express-накопители длиной от 42 до 80 мм);
– поддержка технологии Intel Optane Memory
|
Сетевые интерфейсы |Гигабитный сетевой контроллер Intel Gigabit LAN I219V (10/100/1000 Мбит);
поддержка технологии ASUS Turbo LAN Utility;
поддержка технологии ASUS LAN Guard
|
Аудиоподсистема |7.1-канальный HD-аудиокодек Realtek ALC S1220A;
соотношение «сигнал — шум» (SNR) – 120 дБ;
уровень SNR на линейном входе – 113 дБ;
звуковые конденсаторы Nichicon fine gold (7 шт.);
предрегулятор питания;
встроенный усилитель для наушников;
разные слои текстолита для левого и правого каналов;
изолированная от PCB звуковая карта
|
Интерфейс USB |Чипсет Intel Z390 Express:
– 6 портов USB 2.0/1.1 (2 на задней панели, 4 подключаются к разъёмам на системной плате);
– 4 порта USB 3.1 Gen1 (2 на задней панели, 2 подключаются к разъёмам на системной плате);
– 4 порта USB 3.1 Gen2 (на задней панели платы, 3 Type-A и 1 Type-C);
– 1 порт USB 3.1 Gen1 (подключается к разъёму на системной плате)
|
Разъёмы и кнопки на задней панели |Комбинированный PS/2-порт и два порта USB 2.0/1.1;
порты USB 3.1 Gen 2 Type-С и USB 3.1 Gen 2 Type-A;
видеовыходы HDMI и DysplayPort;
два порта USB 3.1 Gen 2 Type-A;
два порта USB 3.1 Gen 1 Type-A и сетевая LAN-розетка RJ-45;
1 оптический выход S/PDIF-интерфейса;
5 3,5-мм позолоченных аудиоразъёмов
|
Внутренние разъёмы на текстолите |24-контактный разъём питания ATX;
8-контактный разъём питания ATX 12 В;
6 SATA 3;
2 M.2;
4-pin разъём для вентилятора CPU с поддержкой PWM;
4-pin разъём для вентилятора CPU_OPT с поддержкой PWM;
2 4-pin разъёма для вентиляторов Chassis Fan с поддержкой PWM
4-pin разъём для помпы AIO_PUMP;
4-pin разъём для помпы W_PUMP;
разъём EXT_Fan;
разъём M.2 Fan;
разъём температурного сенсора;
2 4-pin адресуемых Aura RGB Strip-разъёма;
разъём USB 3.1 Gen 1 для подключения 1 порта Type-C;
разъём USB 3.1 Gen 1 для подключения 2 портов;
2 разъёма USB 2.0/1.1 для подключения 4 портов;
разъём TPM (Trusted Platform Module);
разъём COM-порта;
разъём S/PDIF;
коннектор Thunderbolt;
группа разъёмов для передней панели (Q-Connector);
разъём аудио для передней панели;
переключатель MemOK!;
коннектор CPU OV;
кнопка включения;
коннектор Clear CMOS;
коннектор Node
|
BIOS |128 Мбит AMI UEFI BIOS с мультиязычным интерфейсом и графической оболочкой;
совместимость с ACPI 6.1;
поддержка PnP 1.0a;
поддержка SM BIOS 3.1;
поддержка технологии ASUS EZ Flash 3
|
Контроллер I/O |Nuvoton NCT6798D
|
Фирменные функции, технологии и особенности |
5-Way Optimization by Dual Intelligent Processors 5:
– 5-Way Optimization tuning key perfectly consolidates TPU, EPU, DIGI+ VRM, Fan Xpert 4, and Turbo Core App;
– Procool Power connector design;
TPU:
– Auto Tuning, TPU, GPU Boost;
Fan Xpert4:
– Fan Xpert 4 featuring Fan Auto Tuning function and multiple thermistors selection for optimized system cooling control;
ASUS 5X Protection III:
– ASUS SafeSlot Core: Fortified PCIe Slot prevents damage;
– ASUS LANGuard: Protects against LAN surges, lightning strikes and static-electricity discharges!;
– ASUS Overvoltage Protection: World-class circuit-protecting power design;
– ASUS Stainless-Steel Back I/O: 3X corrosion-resistance for greater durability!;
– ASUS DIGI+ VRM: Digital 9 phase power design with Dr. MOS;
ASUS Optimem II:
– Improved DDR4 Stability;
ASUS EPU:
– EPU;
ASUS Exclusive Features:
– MemOK! II;
– AI Suite 3;
– Ai Charger;
ASUS Quiet Thermal Solution:
– Stylish Fanless Design Heat-sink solution & MOS Heatsink;
– ASUS Fan Xpert 4;
ASUS EZ DIY:
– ASUS O.C. Tuner;
– ASUS CrashFree BIOS 3;
– ASUS EZ Flash 3;
– ASUS UEFI BIOS EZ Mode;
ASUS Q-Design:
– ASUS Q-Shield;
– ASUS Q-LED (CPU, DRAM, VGA, Boot Device LED);
– ASUS Q-Slot;
– ASUS Q-DIMM;
– ASUS Q-Connector;
AURA: RGB Lighting Control; Turbo APP:
– featuring system performance tuning for selected applications;
M.2 Onboard
|
Форм-фактор, габариты (мм) |ATX, 305 × 244
|
Поддержка операционной системы |Windows 10 x64
|
Гарантия производителя , лет |3
|
Минимальная розничная стоимость, ₽ |
12 460
ASUS Prime Z390-A запечатана в небольшую картонную коробку, на лицевой стороне которой изображена сама плата, отмечены название модели и серии, а также перечислены поддерживаемые технологии. Не забыто и упоминание о поддержке системы подсветки ASUS Aura Sync.
По информации на обратной стороне коробки о плате можно узнать практически всё, включая характеристики и ключевые особенности. Очень кратко характеристики продукта упомянуты и на стикере с торца коробки.
Внутри коробки дополнительной защиты для платы нет — она просто лежит на картонном поддоне и запечатана в антистатический пакет.
Комплектность вполне стандартная: два SATA-кабеля, заглушка на заднюю панель, диск с драйверами и утилитами, соединительный мостик для 2-way SLI, инструкция и винты для закрепления накопителей в портах M.2.
Бонусом идёт купон на двадцатипроцентную скидку при покупке фирменных кабелей в магазине CableMod.
Плата выпускается в Китае и обеспечивается трёхлетней гарантией. Добавим, что в российских магазинах она уже вовсю продаётся по цене от 12,5 тысяч рублей.
Дизайн у ASUS Prime Z390-A скромный и лаконичный. На текстолите нет никаких ярких вставок или привлекающих внимание деталей, а вся расцветка состоит из сочетания белого и чёрного цвета, а также серебристого окраса радиаторов. При этом плату вряд ли можно назвать скучной, хотя это последнее, на что можно обращать внимание при выборе основы для системы средней производительности.
Из отдельных элементов дизайна выделим пластиковые кожухи на портах ввода-вывода и на радиаторе чипсета.
Они имеют полупрозрачные окошки, через которые будет видна подсветка. Добавим, что размеры платы равны 305 × 244 мм, то есть она относится к формату ATX.
Среди основных достоинств ASUS Prime Z390-A производитель выделяет силовые цепи на элементах DrMOS, восьмиканальный звук Crystal Sound, а также поддержку всех современных портов и интерфейсов.
Перед детальным разбором компонентов материнской платы приведём их расположение на схеме из инструкции по эксплуатации.
На заднюю панель платы выведены восемь USB-портов трёх типов, комбинированный порт PS/2, два видеовыхода, сетевая розетка, оптический выход и пять аудиоразъёмов.
Как видите, всё скромно и без излишеств, но вряд ли разработчиков можно упрекнуть в каких-то компромиссах, поскольку базовый набор портов здесь реализован.
Все радиаторы и кожухи крепятся к текстолиту винтами. Для их снятия потребовалось менее пары минут, после чего ASUS Prime Z390-A предстала в своём естественном виде.
Текстолит не перегружен элементами, много свободных от микросхем зон, но это вполне типичная ситуация для материнских плат среднебюджетного сегмента.
Процессорный разъём LGA1151-v2 не отличается какими-то фирменными особенностями — он совершенно стандартный.
В характеристиках платы заявлена поддержка всех современных процессоров Intel под данный разъём, включая недавно вышедшие Intel Core i9-9900
**KF**, для которых потребуется прошить версию BIOS 0702 или новее.
Система питания процессора на ASUS Prime Z390-A организована по схеме 4 × 2 + 1. В силовой цепи используются сборки DrMOS с интегрированными драйверами NCP302045 производства ON Semiconductor, способные выдержать в пике нагрузки до 75 А (средний ток – 45 А).
Управляет питанием на плате цифровой контроллер Digi+ ASP1400СTB.
Питание платы обеспечивается двумя разъёмами — 24- и 8-контактным.
Разъёмы выполнены по технологии ProCool, в которой заявлено более надёжное соединение с кабелями, пониженное сопротивление и улучшенное теплораспределение. При этом визуальных отличий от обычных разъёмов на других платах мы не выявили.
Нет отличий и в чипсете Intel Z390, кристалл которого контактирует со своим небольшим радиатором через термопрокладку.
Впрочем, здесь их и не могло быть.
Плата оснащена четырьмя слотами DIMM оперативной памяти стандарта DDR4, которые попарно раскрашены в разные цвета. Приоритетными для установки одной пары модулей являются светло-серые слоты, что отмечено прямо на текстолите.
Общий объём памяти может достигать 64 Гбайт, а максимальная частота, заявленная в спецификациях, – 4266 МГц. Правда, для достижения такой частоты ещё придётся постараться подобрать как удачный процессор, так и саму память, но фирменная технология OptiMem II должна максимально облегчить остальное. Кстати, список официально протестированных на плате модулей уже сегодня содержит 17 страниц мелким шрифтом, но даже если вашей памяти в нём не окажется, то с вероятностью 99,9 % Prime Z390-A будет с ней работать, поскольку платы ASUS отличаются исключительной всеядностью к модулям оперативной памяти и, как правило, отлично их разгоняют. Добавим, что система питания памяти одноканальная.
ASUS Prime Z390-A оснащается шестью слотами PCI Express. Три из них выполнены в конструктивном исполнении x16, и два таких слота имеют металлизированную оболочку. Первый x16-слот соединён с процессором и использует 16 процессорных линий PCI-E.
Второй слот такого же форм-фактора может работать только в режиме PCI-Express x8, поэтому плата, конечно, поддерживает технологии NVIDIA SLI и AMD CorssFireX, но только в сочетании x8/x8. Третий «длинный» слот PCI-Express работает только в режиме x4, используя чипсетные линии. Кроме этого, на плате есть три слота PCI-Express 3.0 x1, также реализованные набором системной логики Intel.
Переключение режимов работы слотов PCI-Express реализовано микросхемами-коммутаторами ASM1480 производства ASMedia.
Что касается видеовыходов платы со встроенного в процессор графического ядра, то они реализованы контроллером ASM1442K.
На плате есть стандартные шесть портов SATA III с пропускной способностью до 6 Гбит/с, реализованные возможностями всё того же набора системной логики Intel Z390. С их размещением на текстолите разработчики не стали ничего мудрить и расположили все разъёмы одной группой в горизонтальной ориентации.
Есть на плате и порты M.2 в количестве двух штук. Верхний, M.2_1, поддерживает PCI-E- и SATA-устройства длиной до 8 см и при установке накопителя SATA-типа отключает порт SATA_2.
В нижний можно установить только PCI-E-накопители длиной до 11 см, дополнительно он оснащён пластиной-радиатором с термопрокладкой.
В общей сложности на плате 17 USB-портов. Восемь из них выведены на заднюю панель, где можно найти два USB 2.0, два USB 3.1 Gen1 и четыре USB 3.1 Gen2 (один формата Type-C). Ещё шесть USB 2.0 можно подключить к двум колодкам на плате (используется дополнительный хаб), таким же способом можно вывести и два USB 3.1 Gen1. Кроме них, к плате подключается один разъём USB 3.1 Gen1 для передней панели корпуса системного блока. Вполне исчерпывающий набор портов.
В качестве сетевого контроллера на ASUS Prime Z390-A используется широко распространённая микросхема Intel I219-V .
Аппаратную защиту от статического электричества и скачков напряжения обеспечит блок LANGuard, а программную оптимизацию трафика можно провести утилитой Turbo LAN.
В основе звукового тракта платы лежит процессор Realtek S1220A с заявленным соотношением «сигнал – шум» (SNR) на линейном аудиовыходе 120 дБ и уровнем SNR на линейном входе – 113 дБ.
Такие значения достигаются в том числе и благодаря использованию японских аудиоконденсаторов премиум-класса, разведению левого и правого каналов в разных слоях текстолита, изоляции аудиозоны на текстолите от остальных элементов токонепроводящей полосой.
На программном уровне поддерживается технология объёмного звучания DTS Headphone:X.
За функции мониторинга и управления вентиляторами на плате отвечает микросхема Nuvoton NCT6798D.
В общей сложности к плате можно подключить семь вентиляторов, каждый из которых можно настроить индивидуально по ШИМ-сигналу или напряжением. Есть и отдельный разъём для подключения помп систем жидкостного охлаждения, выдающий ток 3 А.
Разъёмом EXT_FAN предусмотрена возможность подключения платы расширения с дополнительными коннекторами для вентиляторов и термодатчиков, которые затем также могут управляться из BIOS платы.
Настройка автоматического разгона на ASUS Prime Z390-A реализована микроконтроллером TPU KB3724Q.
Для подключения внешних лент светодиодной подсветки на плате предусмотрены два разъёма Aura RGB.
Поддерживаются ленты длиной до трёх метров. На текстолите платы подсвечивается зона кожуха выходов и небольшой участок радиатора чипсета, а регулировка цвета подсветки и выбор её режимов доступны через приложение ASUS Aura.
Из других разъёмов на нижнем крае текстолита выделим новый коннектор NODE, к которому можно подключить блоки питания ASUS для мониторинга энергопотребления и скорости вращения вентилятора.
А вот отсутствие индикатора POST-кодов на плате не радует, даже несмотря на её среднебюджетный класс.
В охлаждении VRM-цепей платы задействованы два отдельных алюминиевых радиатора с термопрокладками. В свою очередь чипсет, потребляющий не более 6 ватт, охлаждается маленькой 2-3-мм пластинкой.
Такая же толщина и у пластины для накопителя в нижнем порте M.2. Причём производитель обещает 20-градусное снижение температуры накопителей в сравнении с показателями системы вообще без радиатора.
Материнскую плату ASUS Prime Z390-A мы тестировали с последней доступной на момент подготовки статьи версией BIOS — 0805 от 01.02.2019. Поскольку никаких существенных изменений в оболочке в сравнении с BIOS других актуальных материнских плат ASUS серии Prime здесь нет, то мы прокомментируем только отдельные его разделы.
Первая загрузка BIOS всегда происходит в упрощённом режиме EZ Mode. Он вполне подойдёт для начинающих пользователей, не планирующих выжимать из своей системы максимум.
Для переключения в классический режим используется клавиша F7. После этого становятся доступными восемь основных разделов с настройками.
Далее мы приведём снимки BIOS с настройками, которые использовали при разгоне процессора и оперативной памяти.
Нужно сказать, что ASUS Prime Z390-A имеет исчерпывающее количество доступных к изменению настроек BIOS для разгона основных компонентов системы. Каких-то пробелов здесь мы не выявили. Напомним, что речь идёт всего лишь о плате среднего ценового сегмента.
Не оставляет вопросов и основной раздел с настройками контроллеров платы и установленных в неё компонентов.
Для мониторинга в BIOS материнской платы доступны температуры процессора, платы и чипсета, основные напряжения и скорости всех подключённых к плате вентиляторов.
Встроенная в BIOS утилита Q-Fan Control упростит процедуру настройки вентиляторов, но, в отличие от BIOS материнских плат других производителей, в ней доступны только три точки регулировки.
Этого недостаточно, чтобы сделать кривую как можно более плавной, но такая проблема есть у всех материнских плат ASUS, включая флагманские модели.
В заключение приведём настройки BIOS, связанные с загрузкой системы и встроенными утилитами.
Из нововведений оболочки выделим встроенную инструкцию по разгону процессора и оперативной памяти – AI Overclocking Guide.
Каких-либо других новшеств BIOS платы ASUS Prime Z390-A не содержит. Работает оболочка быстро, а при выходе ещё раз напоминает пользователю, какие настройки были изменены.
Проверка стабильности, оверклокерского потенциала и производительности материнской платы ASUS Prime Z390-A была проведена в закрытом корпусе системного блока при температуре в помещении около 25 градусов Цельсия. Конфигурация тестового стенда состояла из следующих комплектующих:
Тестирование было проведено под управлением операционной системы Microsoft Windows 10 Pro (1809 17763.292) с установкой следующих драйверов:
Стабильность системы при разгоне мы проверяли стресс-утилитой Prime95 29.4 build 8 и другими бенчмарками, а мониторинг проводился с помощью HWiNFO64 версии 6.03-3680.
Перед тестированием традиционно приведём характеристики платы из утилиты AIDA64 Extreme.
Сначала мы протестировали плату с процессором Intel Core i7-8700K, стартовав с автоматическими настройками BIOS и активированным XMP.
Никаких неприятных сюрпризов плата не преподнесла. Процессор работал в штатном режиме на частотах вплоть до 4,7 ГГц с напряжением от 0,684 до 1,128 В.
Наиболее горячее ядро процессора достигало температуры 64 градуса Цельсия, а вентиляторы суперкулера даже не раскручивались на полную мощность. Иначе говоря, автоматические настройки BIOS на плате ASUS Prime Z390-A подобраны идеально, чего нельзя было сказать ранее о моделях на Intel Z370/Z270. Далее мы перешли к разгону шестиядерного процессора.
К сожалению, психологически желаемых 5,0 ГГц на данной плате достичь не удалось, за исключением кратковременных тестов без серьёзной нагрузки. Если же тестировать процессор как положено, то он перегревался и терял стабильность. Поэтому нам пришлось остановиться на частоте 4,9 ГГц при напряжении 1,315 В и LLC6.
Впрочем, и этот результат вполне можно назвать успешным, тем более что температуры разогнанного таким образом процессора были примерно в 10 градусах Цельсия от предельных.
Добавим, что, если верить датчику температуры элементов цепей VRM, даже после разгона процессора они не прогревались выше 55 градусов Цельсия. Результат для такой скромной платы отличный, но справится ли она с более горячим Intel Core i9-9900K?
Прежде чем выяснить это, мы протестировали плату с восьмиядерным процессором в номинальном режиме работы (Hyper-Threading активирована).
Здесь при автоматических настройках BIOS плата повела себя несколько иначе. Секунд 30 после начала теста Prime95 она держала процессор на 5 ГГц, а затем резко сбросила его частоту до 3,9 ГГц с одновременным снижением напряжения до 1,021 В — и больше не повышала эти значения. График мониторинга наглядно демонстрирует данный факт.
Очевидно, проблема была не столько в самом процессоре, который по технологии Turbo Boost 2.0 должен работать на частоте 4,2-4,3 ГГц при задействовании всех ядер, сколько в ограничениях по мощности и питанию, установленных платой при автоматических настройках BIOS. Максимально отодвинув их границы в BIOS, стабилизировав напряжение на ядре уровнем LLC7 и подобрав минимально возможное напряжение, которое оказалось равным 1,325 В, нам удалось добиться от процессора стабильной работы на частоте 4,9 ГГц одновременно по всем ядрам.
При этом максимальная температура наиболее горячего ядра процессора достигала отметки 96 градусов Цельсия, то есть запаса эффективности охлаждения для более впечатляющего разгона у нас уже не оставалось.
Здесь справедливо добавить, что проблема дальнейшего разгона процессора была не в плате ASUS, а именно в тестовом экземпляре Intel Core i9-9900K, поскольку даже на втрое более дорогой плате другого производителя с более мощной, 12-фазной системой питания нам также не удалось добиться от него заветных 5,0 ГГц. Отметим, что температура элементов цепей VRM на Prime Z390-A при разгоне не превысила отметку 60 градусов Цельсия.
В заключение «разгонной» части статьи скажем, что двухканальный комплект GeIL Super Luce RGB на плате ASUS смог стабильно работать на частоте 3,1 ГГц с основными таймингами 16-18-18-36 CR1 и корректировкой отдельных вторичных таймингов. Результат на скриншоте.
Оба процессора сегодня у нас разогнались до одной частоты – 4,9 ГГц, поэтому в нескольких тестах производительности мы сравним их показатели друг с другом.
|
ASUS Prime Z390-A Intel Core i7-8700K @4,9 ГГц DDR4 2 × 8 Гбайт GeIL Super Luce RGB 3,100 ГГц 16-18-18-36 CR1 |
ASUS Prime Z390-A Intel Core i9-9900K @4,9 ГГц DDR4 2 × 8 Гбайт GeIL Super Luce RGB 3,100 ГГц 16-18-18-36 CR1
|
AIDA64 Extreme 5 cache & memory benchmark
|
WinRAR 5.70 x64
|
7-Zip 19 . 00 x64
|
HWBOT x265 v2.2.0
|
EZ CD Audio Converter 8.0.6 (FLAC в MP3 320 Кбит / с )
|
Blender 2.80 beta
|
Corona 1.3 Benchmark
|
CINEBENCH R15 Extreme x64
|
3DMark 2.8.6446 64, Time Spy CPU test
Не считая тестов пропускной способности памяти, плата ASUS Prime Z390-A с процессором Intel Core i9-9900K опережает саму себя с процессором Intel Core i7-8700K на величину до 40 % (WinRAR), а в среднем по всем тестам разрыв составил 33 %. Вполне наглядная демонстрация полезности двух "лишних" ядер.
Материнскую плату ASUS Prime Z390-A вполне можно назвать отличной «рабочей лошадкой», поскольку у неё нет ничего лишнего и при этом есть все нужное для повседневной работы или развлечений, а предлагается она за вполне приемлемые деньги. Если нужно будет разогнать процессор или память, то пожалуйста – есть функциональный BIOS и хорошо охлаждаемые силовые цепи достаточной мощности, а также исчерпывающие возможности мониторинга и управления семью вентиляторами одновременно. Можно организовать на ней SLI- или CrossFireX-конфигурацию из пары видеокарт и установить два накопителя в порты M.2. В числе игровых возможностей платы есть достойный звуковой тракт с аппаратными улучшениями и поддержкой технологии объёмного звука. Дополняет этот набор настраиваемая подсветка с двумя разъёмами для подключения светодиодных лент, а забыть о возможных проблемах поможет трёхлетняя гарантия. |
984,280 | APE OUT — мы уйдем из зоопарка. Рецензия | |
Жанр |Экшен
|
Издатель |Devolver Digital
|
Издатель в России |
нет
|
Разработчик |Gabe Cuzillo, Bennet Foddy, Matt Boch
|
Минимальные требования |Windows 7 и выше, процессор Intel Core 2 Duo E4500 2,2 ГГц / AMD Athlon 64 X2 4400+ 2,0 ГГц, 2 Гбайт ОЗУ, видеокарта с 512 Мбайт памяти и поддержкой DirectX 11, например NVIDIA GeForce 9600 GT / ATI Radeon HD 3870, 2 Гбайт на жестком диске
|
Рекомендуемые требования |Процессор Intel Core i3-2100 3,1 ГГц / AMD Phenom II X4 945 3,0 ГГц, 4 Гбайт ОЗУ, видеокарта с 1 Гбайт памяти и поддержкой DirectX 11, например NVIDIA GeForce GTX 550 Ti / AMD Radeon HD 7750
|
Дата выхода |28 февраля 2018 года
|
Возрастной ценз |от 13 лет
|
Платформы |PC, Nintendo Switch
|
Официальный сайт *Игра протестирована на * *PC*
Гориллы — почти исключительно вегетарианцы. Мохнатые любители закусить травку орехами. Нежные родители, безобидные приматы, мирно коротающие деньки в джунглях Западной и Центральной Африки. Не трогайте гориллу — и ничего плохого не случится. Правило простое. Но вы тронули. Накачали транквилизаторами и бросили в клетку. Зачем? Кому это нужно? Зверя подобные вопросы не интересуют. А вот то, что клетка оказалась почему-то не заперта, — более чем. Дальше — на инстинктах.
⇡#
**Ты задаешь ритм, я рисую мелодию**
APE OUT ворвалась в зону нашего внимания летом 2017 года, когда начинающий разработчик Гейб Кузилло (Gabe Cuzillo) выпустил
*играбельный трейлер *своей будущей игры, и одновременно ее подрядились издавать ребята из Devolver Digital. Предельно логичное решение — кому еще издавать игру, которая взяла формулу Hotline Miami и подмешала в нее неистовую джазовую импровизацию. Бас-бочки и том-томы задают ритм, а по хай-хетам лупите уже вы сами — бросая людей в стены. Это как Garageband или другое подобное приложение, только вы играете на ударной установке, не касаясь иконок на экране, а музицируете насилием.
Двухминутный трейлер я прошел тогда раз 5-10 подряд и не мог поверить своему счастью — столько энергии и изобретательности оказалось в этой примитивной, как животные инстинкты гориллы, игре. Но, казалось, перенести это в полноценную игру на несколько часов будет сложновато — и бесконечные переносы APE OUT, которая должна была первоначально выйти в начале 2018 года, наводили на мысли, что казалось, в принципе, верно.
Нет, нет и еще раз нет. К Гейбу Кузилло по пути присоединились Беннет Фодди (да-да, тот самый, автор Getting Over It with Bennett Foddy) и Мэтт Бок (Matt Boch), создавший едва ли не самое главное — звуковой дизайн и музыку для APE OUT. И мы получили одну из самых оригинальных, гармоничных и энергичных игр как минимум начала 2019 года. Все ожидания оказались оправданны — и более того, игра их превосходит.
Формула очень проста. Вид сверху. Вы — разъяренная горилла. Все оружие, что у вас есть, — это две мускулистых руки, которыми вы можете отталкивать встречающихся у вас на пути охранников (вооруженных огнестрельным оружием, а позже — еще огнеметами и базуками). Также их можно хватать и использовать в качестве живого щита (не очень прочного, быстро изнашивается) или бросаться презренными людишками в других таких же. Можно еще ломать различные предметы, разбивать стеклянные преграды и использовать вырванные двери в виде уже более прочного щита. И двигаетесь по пути к свободе, не разбирая преград и препятствий. В отличие от Hotline Miami, вы погибаете не от одного выстрела — жизненной энергии в человекообразной обезьяне хватает на то, чтобы выдержать несколько ранений. Но да, умирать все равно придется много — и повторять заново.
Никаких сюжетных вставок не будет — только движение вперед. Из комнаты в комнату, с этажа на этаж, с палубы на палубу — пока не почуете вожделенный запах свободы. Каждый уровень — новый трек. Время от времени необходимо перевернуть пластинку, а то и вовсе взять со стеллажа следующую. Это не последовательная история, это управляемый хаос джазовой импровизации, здесь даже не будет повторяющихся уровней, они (почти) каждый раз генерируются заново. Выучить движения нельзя, нужно ловить ритм. Именно в ритме и нанизываемой на него мелодии насилия весь смысл APE OUT.
Джаз, как сообщает нам «Википедия», возник из сочетания африканских мотивов и европейской гармонии. APE OUT четко следует этой логике. Европейская гармония подразумевает расчерченную архитектуру уровней-тюрем и отбивающийся на фоне в высоком темпе ритм. Вы здесь — тот самый африканский мотив, вихрем пробивающий в этой безупречной логике брешь.
В APE OUT все подчинено общему стилю: от игрового дизайна (отсечь все лишнее) и безупречного звукового сопровождения (каждая пластинка-уровень слегка отличается по своему жанру, а вы услышите в наушниках удар по тарелке именно в том месте, куда вы только что бросили охранника, — стоит почитать подробнее) до визуального решения. Нарочито примитивный, он ошарашивает геометрией (эти стены, словно бросающиеся на тебя с экрана) и чистыми цветами. Минимум деталей, ничего отвлекающего от самой сути. Чистая органика.
Пройдя игру однажды, вы можете вернуться и влететь в этот вихрь заново, повысив сложность и пытаясь сделать все еще более ритмично; можно даже попытаться пройти APE OUT задом наперед. Но как бы то ни было, это недлинная и не слишком расположенная к тому, чтобы на нее потратить массу времени, игра. Хорошей музыки не должно быть слишком много. Но в памяти она остается надолго.
***
Главным джазовым инструментом считается саксофон, а мы здесь говорим только об ударных, как же так. Ну, во-первых, это заблуждение, джаз можно играть почти на чем угодно. Во-вторых, да, верно, APE OUT — непрерывная барабанная импровизация, в которую другие инструменты встревают редкими вспышками. Но саксофон обязательно исполнит свою партию — и мало в этот момент не покажется.
А пока, как говорил Теренс Флетчер, «второй состав, вытрите кровь с моих барабанов».
**Достоинства:** **Недостатки:**
|
|
Примитивная, как африканские ритмы, но и яркая, как африканские ритмы, APE OUT только кажется похожей на Hotline Miami. Общие здесь только вид сверху и невысокая детализация. Головокружительная геометрия здесь так же влияет на восприятие, как и работа со звуком.
|
|
А работа со звуком — это то, ради чего и стоит в первую очередь брать APE OUT. Джаз здесь не просто фон и саундтрек, а сама плоть игры. Игрок сам кроит и шьет музыкальное полотно.
|
|
Адреналиновый экшен с видом сверху — вы же прекрасно представляете, как это играется? Ничего лишнего — только рукопашная с предельной тактильностью. Адреналин через край, смерть — это только барьер, через который надо перепрыгнуть на пути к свободе.
|
|
Не предусмотрена.
|
|
Блистательная джазовая импровизация в игровой форме. Веселая, инстинктивная и гармоничная. Не ищи смысла там, где надо просто броситься в волны старого доброго ультранасилия.
*Оценка: 9,0/10*
изображения (24)
**Видео** **:** |
984,281 | Обзор смартфона Xiaomi Mi 9: кандидат от народа | С номерных смартфонов серии Mi для Xiaomi все начиналось – Redmi и всевозможные вариации в стиле Mi Max или Mi Mix начались уже значительно позже. Поэтому выпустить свой флагман, готовый вступить в конкуренцию с «настоящими» A-брендами (это понятие в последнее время изрядно размылось) и флагманами второго ряда (Honor, OnePlus), для компании критически важно.
Xiaomi Mi 9 вобрал все ключевые тенденции последнего времени (непрерывный рост количества тыльных камер, уменьшение размера выреза-челки на экране) и приплюсовал к ним традиционные ценности, в том числе представленные в Mi 8: крупный (6,4 дюйма) AMOLED-дисплей, последнюю флагманскую платформу Qualcomm (Snapdragon 855) и стеклянный корпус. Хватит ли этого чтобы однозначно выиграть гонку в мире, где просто выпустить смартфон на мощнейшей платформе за полцены от флагмана уже недостаточно ?
В России на момент написания обзора Xiaomi Mi 9 еще не продается официально, более того, даже «серый» аппарат достать быстро не представляется возможным. Цены указаны на основе текущих на Aliexpress, где смартфон уже есть в наличии.
|
Xiaomi Mi 9 |
Xiaomi Mi 8 |
OnePlus 6T |
Honor View 20 |
Oppo RX17 Pro
|
Дисплей |6,39 дюйма, AMOLED,
2340 × 1080 точек, 403 ppi, емкостный мультитач
|6,21 дюйма, AMOLED, 2246 × 1080 точек, 402 ppi, емкостный мультитач
|6,41 дюйма, AMOLED,
2340 × 1080 точек, 402 ppi, емкостный мультитач
|6,4 дюйма, IPS,
2310 × 1080 точек, 398 ppi, емкостный мультитач
|6,4 дюйма, AMOLED,
2340 × 1080 точек, 401 ppi, емкостный мультитач
|
Защитное стекло |Corning Gorilla Glass 6
|Corning Gorilla Glass 5
|Corning Gorilla Glass 6
|Corning Gorilla Glass (версия неизвестна)
|Corning Gorilla Glass 6
|
Процессор |Qualcomm Snapdragon 855: одно ядро Kryo 485 Gold, частота 2,85 ГГц + три ядра Kryo 485 Gold, частота 2,42 ГГц + четыре ядра Kryo 485 Silver, частота 1,8 ГГц
|Qualcomm Snapdragon 845: четыре ядра Kryo 385 Gold, частота 2,8 ГГц + четыре ядра Kryo 385 Silver, частота 1,7 ГГц
|Qualcomm Snapdragon 845: четыре ядра Kryo 385 Gold, частота 2,8 ГГц + четыре ядра Kryo 385 Silver, частота 1,7 ГГц
|HiSilicon Kirin 980: восемь ядер (2 × ARM Cortex A76, частота 2,6 ГГц + 2 × ARM Cortex A76, частота 1,92 ГГц + 4 × ARM Cortex A55, частота 1,8 ГГц); архитектура HiAI
|Qualcomm Snapdragon 710: два ядра Kryo 360 Gold, частота 2,2 ГГц + шесть ядер Kryo 360 Silver, частота 1,7 ГГц
|
Графический контроллер |Adreno 640
|Adreno 630, 710 МГц
|Adreno 630, 710 МГц
|ARM Mali-G76 MP10, 720 МГц
|Adreno 616, 750 МГц
|
Оперативная память |6/8/12 Гбайт
|6 Гбайт
|6/8/10 Гбайт
|6/8 Гбайт
|6 Гбайт
|
Флеш-память |128/256 Гбайт
|64/128/256 Гбайт
|128/256 Гбайт
|128/256 Гбайт
|128 Гбайт
|
Поддержка карт памяти |Нет
|Нет
|Нет
|Нет
|Есть
|
Разъемы |USB Type-C
|USB Type-C
|USB Type-C
|USB Type-C, мини-джек 3,5 мм
|USB Type-C
|
SIM-карты |Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|
Сотовая связь 2G |GSM 850/900/1800/1900 МГц
CDMA 800
|GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
CDMA 800/1900
|GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
|
Сотовая связь 3G |HSDPA 850 / 900 / 1700 / 1900 / 2100 МГц
|UMTS 850 / 900 / 1900 / 2100
|HSDPA 800 /850 / 900 / 1700 / 1800 / 1900 / 2100 МГц
|HSDPA 850 / 900 / 1700 / 1900 / 2100 МГц
|WCDMA 800 / 850 / 900 / 1700 / 1900 / 2100 МГц
|
Сотовая связь 4G |LTE: диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 20, 28, 38, 39, 40
|LTE Cat. 16 (до 1024 Мбит/с): диапазоны 1, 3, 4, 5, 7, 8, 20, 34, 38, 39, 40, 41
|LTE Cat.16 (до 1024 Мбит/с): диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 13, 17, 18, 19, 20, 25, 26, 28, 29, 30, 32, 34, 38, 39, 40, 41, 46, 66, 71
|LTE Cat. 13 (до 400 Мбит/с): диапазоны 1, 2, 3, 4, 5, 6, 7, 8, 19, 20, 28, 38, 39, 40, 41
|LTE Cat.15 (до 800 Мбит/с): диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 17, 18, 19, 20, 25, 26, 28, 32, 34, 38, 39, 40, 41
|
Wi-Fi |802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|
Bluetooth |5.0
|5.0
|5.0
|5.0
|5.0
|
NFC |Есть
|Есть
|Есть
|Есть
|Есть
|
Навигация |GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo, QZSS
|GPS, A-GPS, ГЛОНАСС, BeiDou
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|
Датчики |Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), ИК-датчик
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|
Сканер отпечатков пальцев |Есть, на экране
|Есть
|Есть, на экране
|Есть
|Есть, на экране
|
Основная камера |Тройной модуль: 48 Мп, ƒ/1,8 + 16 Мп, ƒ/2,2 + 12 Мп, ƒ/2,2, гибридный автофокус, двойная светодиодная вспышка
|Двойной модуль: 12 Мп, ƒ/1,8 + 12 Мп, ƒ/2,4, фазовый автофокус, оптическая стабилизация (с основной камерой), двойная светодиодная вспышка
|Двойной модуль, 16 + 20 Мп, ƒ/1,7 + ƒ/1,7, гибридный автофокус, двойная светодиодная вспышка
|Двойной модуль, 48, ƒ/1,8 + 3D-TOF-камера, фазовый автофокус, светодиодная вспышка
|Двойной модуль, 12 + 20 Мп, ƒ/1,5-2,4 + ƒ/2,6, фазовый автофокус, оптическая стабилизация, светодиодная вспышка
|
Фронтальная камера |20 Мп, ƒ/2,0, фиксированный фокус
|20 Мп, ƒ/2,0, фиксированный фокус
|16 Мп, ƒ/2,0, фиксированный фокус
|25 Мп, ƒ/2,0, фиксированный фокус
|25 Мп, ƒ/2,0, фиксированный фокус, без вспышки
|
Питание |Несъемный аккумулятор: 12,54 Вт·ч (3300 мА·ч, 3,8 В)
|Несъемный аккумулятор: 12,92 Вт·ч (3400 мА·ч, 3,8 В)
|Несъемный аккумулятор: 14,06 Вт·ч (3700 мА·ч, 3,8 В)
|Несъемный аккумулятор: 15,2 Вт·ч (4000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 14,06 Вт·ч (3700 мА·ч, 3,8 В)
|
Размер |157,5 × 74,7 × 7,6 мм
|154,9 × 74,8 × 7,6 мм
|157,5 × 74,8 × 8,2 мм
|156,9 × 75,4 × 8,1 мм
|157,6 × 74,6 × 7,9 мм
|
Масса |173 грамма
|175 граммов
|185 граммов
|180 граммов
|183 грамма
|
Защита корпуса |Нет
|Нет
|Нет
|Нет
|Нет
|
Операционная система |Android 9.0 Pie, оболочка MIUI
|Android 8.1.0 Oreo, оболочка MIUI
|Android 9.0 Pie, оболочка OxygenOS
|Android 9.0 Pie, оболочка EMUI
|Android 8.1 Oreo, оболочка ColorOS
|
Актуальная цена |Примерно 36 000 рублей за версию 6/128 Гбайт, 40 000 рублей за версию 8/128 Гбайт, 60 000 рублей за прозрачную версию 12/256 Гбайт (все цены — усредненные, с Aliexpress)
|25 890 рублей за версию 6/64 Гбайт, 27 490 рублей за версию 6/128 Гбайт, 27 900 рублей за версию 6/256 Гбайт
|37 500 рублей за версию 6/128 Гбайт, 38 500 рублей за версию 8/128 Гбайт, 44 490 рублей за версию 8/256 Гбайт
|35 500 рублей за версию 6/128 Гбайт, 42 950 рублей за версию 8/256 Гбайт
|49 990 рублей
**Дизайн, эргономичность и программное обеспечение**
Первой «капелькой», с которой мне довелось столкнуться, оказался микровырез в скромном смартфоне BQ Universe – и тогда я воспринял его скорее со скромной иронией. Кто же знал, что речь о тенденции и компании начнут
*мериться *тем, у кого «челка» меньше, а пользователи – радоваться, потому что это решение «не копирует Apple»? Xiaomi в этой же струе, и вслед за OnePlus 6T (и многими другими) она разместила фронтальную камеру в совсем небольшом наплыве, почти не отнимающем место у строки состояния – на ней хватило места и времени, и всем иконкам, и заветной цифре текущего состояния батареи в процентах.
В остальном Xiaomi Mi 9 весьма последовательно наследует предшественнику, Mi 8: стеклянный корпус (с алюминиевыми ребрами, а сзади глянцевый), вертикально ориентированный блок камеры, спинка со скошенными гранями. Рамки вокруг дисплея минимальные – при этом о полной безрамочности говорить не приходится, они заметны как снизу и сверху, так и по периметру.
Впрочем, есть и некоторые изменения, помимо той самой пресловутой «капельки». С задней панели исчез сканер отпечатков пальцев, переехавший, как это теперь принято, на экран. А цветные (не черная, как у нас на тестировании) версии Mi 9 получили особую текстуру, которая меняет цвет в зависимости от освещения. Подобное мы видели, к примеру, в Samsung Galaxy S10 – речь не о градиенте в стиле Huawei/Honor, а о ровной заливке особого типа.
Смотрится Mi 9 в итоге действительно неплохо, и, возможно, это действительно «самый красивый смартфон Xiaomi в истории», как об этом заявляли представители компании перед его анонсом. Но это скорее говорит о не очень высокой планке красоты, заданной китайцами, чем о настоящем достижении промышленного дизайна. В первую очередь Xiaomi Mi 9 выглядит
*обычно*. Так, как от него и ожидаешь.
Ну и еще он очень скользкий – так уж повелось у стеклянных смартфонов за редкими исключениями. В комплекте есть силиконовый чехол — рекомендую убрать аппарат в него сразу, особенно если у вас черный Mi 9: хвастать особо нечем.
В сравнении с Mi 8 новый флагман почти не отличается по габаритам (он стал чуть более вытянутым, но по толщине не изменился), а весит всего на два грамма меньше. Можно смело говорить, что ощущения от работы с ним ровно те же самые – это крупный, двуручный смартфон, который при этом свободно помещается почти в любой карман.
Лицевая панель прикрыта закаленным стеклом Gorilla Glass 6, как и в упомянутом выше Samsung Galaxy S10. Я уже отмечал в обзоре корейского смартфона, что последняя версия знаменитого стекла гораздо более устойчива к микроцарапинам, чем предыдущая, и опыт использования Mi 9 это впечатление подкрепляет. Другое дело, что здесь используется неожиданно слабое олеофобное покрытие (или о нем вообще забыли?) – экран очень легко покрывается отпечатками, которые затем весьма сложно оттереть.
Как и в Xiaomi Mi 8 или Mi 6, тут нет ни мини-джека, ни заявленной влаго- пылезащиты. Производитель даже не пытается скрывать цели отказа от аналогового разъема: это одновременно и дань моде, и попытка заработать на беспроводных аксессуарах.
Добавился новый орган управления – клавиши включения и регулировки громкости на правой грани получили напарницу на левой. Она по умолчанию активирует голосовой помощник, но можно назначить на нее и другие функции – мы это уже видели в Mi MIX 3. Есть варианты и с экранной навигацией – три виртуальные клавиши можно убрать и работать со смартфоном исключительно жестами.
Маленький вырез смотрится приятно и меньше мешает при полноэкранном воспроизведении видео, но есть у его применения и обратная сторона – Mi 9 лишился дополнительных сенсоров, которые были раньше размещены на крупной «моноброви». Разблокировка при помощи лица доступна, но используется для нее только фронтальная камера, без ИК-подсветки. В результате эта система разблокирования малоэффективна в темноте. Про небезопасность такого метода Xiaomi предупреждает сама – мол, пользуйтесь лучше датчиком отпечатков, паролем или графическим ключом.
Сканер отпечатков тут ультразвуковой, расположен под экраном – это решение уже официально можно назвать общеупотребимым. Работает сенсор при этом очень неплохо – процент успешных срабатываний, на мой взгляд, лучший среди всех конкурентов. По скорости он, конечно, уступает почти любому емкостному сенсору, но в своей лиге это если не чемпион, то как минимум претендент на медаль. То же, к слову, касается и распознавания лица – срабатывает оно мгновенно, стоит только взять смартфон в руки. Вероятно, тут есть и заслуга новейшей аппаратной платформы, лучше адаптированной для этих задач.
Xiaomi Mi 9 «из коробки» работает под управлением Android 9.0 Pie с оболочкой MIUI 10. Я про нее уже писал в совсем недавнем обзоре Xiaomi Mi MIX 3. Для Mi 9 важны две детали. Первая – работа программного обеспечения с вырезом: проблем, о которых мы говорили применительно к Mi 8, тут нет. «Капелька» вписана в операционную систему аккуратно и нигде особенно не мешается. Вторая – здесь, естественно, нет отдельного экрана, включающегося при раздвигании смартфона (активации механизма слайдера). В остальном – та же оболочка, быстрая и неплохая на вид (но с теми самыми уродливыми рамками вокруг приложений).
Правда, возникли другие проблемы, с которыми я не сталкивался в третьем «миксе», – местами оболочка оказалась недопереведенной. На экране блокировки, например, информация о текущем местоположении и погоде, а также часть уведомлений отображается иероглифами – притом, что тестировалась, понятное дело, глобальная версия смартфона и сразу после начала тестирования на него «прилетело» большое обновление, которое я незамедлительно установил. В общем, налицо классическая беда Xiaomi с сыростью программного обеспечения смартфонов на старте их продаж. Странная и неприятная проблема — с учетом того, что компания начинала именного как разработчик оболочки для мобильных устройств на Android и вышла на рынок гаджетов уже потом. Другие очень спорные моменты знакомы и по прошлым версиям MIUI – я говорю о встроенной в разные базовые приложения рекламе и отсутствии внятной системы поиска внутри устройства.
изображения (26)
В Xiaomi Mi 9 установлен ровно тот же дисплей, что и в Mi MIX 3, – AMOLED авторства Samsung: диагональ 6,39 дюйма, формат 19,5:9, разрешение 2340 × 1080 точек (Full HD+). Плотность пикселей составляет 403 ppi. Не самый высокий уровень на сегодня, но достаточный, чтобы шрифты выглядели гладкими, а Full HD-видео смотреть было комфортно. Можно посетовать на «нефлагманское» разрешение – и да, в сравнении с главными аппаратами А-брендов разница будет заметной, но проявится она только при просмотре 4К-контента. Тем не менее это одна из тех границ, которые лежат между флагманом за 40 тысяч рублей и флагманами за 60-70 тысяч.
Про неудачное олеофобное покрытие или его отсутствие я уже сказал выше – в остальном с экраном нет физических проблем: поляризационный слой на месте, сенсор чувствительный (и реагирует на 10 одновременных касаний). Поначалу он проявил даже излишнюю чувствительность, пытаясь раз за разом разблокировать смартфон в кармане, что приводило к паузам в использовании, когда гаджет действительно был нужен (слишком много попыток разблокировать подряд – пауза в 30 секунд), но после перезагрузки эта проблема исчезла.
Максимальная измеренная яркость дисплея Xiaomi Mi 9 составила 426 кд/м
2 – для OLED-дисплея это нормальный показатель, который гарантирует, что вы не будете испытывать проблем при работе с ним в солнечный день. При активации адаптивного режима цветопередачи, в котором смартфон подстраивается под внешние условия как с той самой цветопередачей, так и с пиковой яркостью, этот показатель может в определенных условиях вырастать до 600 кд/м 2. Заодно такой подход позволяет Xiaomi заявлять о поддержке стандарта HDR10 (мобильной версии).
В настройках доступна регулировка цветового тона (от холодного к теплому), но только при активации автоматической настройки «контрастности» – эту ошибку разработчики повторяют из раза в раз. Речь идет, понятное дело, не о контрастности (которая в OLED-экране с его светимостью отдельных пикселей остается неизменной во всех режимах), а именно об изменении цветового охвата. Регулировать цветовой тон можно, кстати, исключительно при упомянутой выше адаптивной цветопередаче (здесь – «автонастройке контрастности»). При выборе повышенной или стандартной «контрастности» вы лишитесь возможности ее регулировать, а цветовой охват будет фиксирован на уровнях, близких к DCI-P3 и sRGB соответственно. Я измерил цветопередачу в адаптивном и стандартном режимах. Измерение проводилось в комнате с верхним светом с лампами накаливания.
В автоматическом режиме при свете ламп накаливания гамма составляет 2,28, линии кривых ведут себя достаточно стабильно. Цветовая температура превышает норму и держится в основном на уровне в 7 800 К с падением до 6 600 К – цвета холоднее должного, но незначительно. Цветовое пространство примерно соответствует стандарту DCI-P3. Среднее отклонение DeltaE по шкале Color Checker, включающей в себя как широкий спектр цветов, так и оттенки серого, составило 4,38 при норме в 3,00 – для расширенной цветопередачи это хороший показатель.
При активации «стандартной контрастности» цветовое пространство резко сужается и соответствует уже стандарту sRGB, но с небольшим смещением. Гамма в этом режиме составляет 2,26, причем кривые ведут себя и вовсе почти эталонно. Цветовая температура колеблется в районе 6 500 К. То же идеальное поведение касается и среднего отклонения DeltaE по шкале Color Checker – оно составляет 1,86, что укладывается не только в обозначенные границы нормы, но и в эталонные границы (2,00). Настроен дисплей Xiaomi Mi 9 идеально.
В плане работы со звуком Xiaomi Mi 9 не предлагает ничего особенного. В отсутствие мини-джека предлагается использовать в первую очередь, конечно, беспроводные наушники (поддержка всех нужных форматов высокого разрешения есть – все-таки тут платформа Qualcomm), во вторую – проводные при помощи переходника, который есть в комплекте. Наушников, кстати, в комплекте нет. Можно было бы в очередной раз отметить отличие флагмана Xiaomi от «настоящего» флагмана, если бы, к примеру, Sony тоже не забывала положить наушники в коробку со своими топ-смартфонами. Качество звука при проводном воспроизведении при помощи переходника обычное – запас громкости хороший, но особенной детализацией и глубиной звучание не отличается.
А вот монофонический основной динамик оправдать тем, что «у той же Sony тоже так», не получится – для серьезного смартфона это сегодня не то чтобы недопустимо, но уж точно несолидно. Он громкий и не перекрывается пальцем, если держать смартфон в руке горизонтально, но кайфа от его работы не испытываешь. Разговорный динамик, вписанный под верхнюю грань, работает только во время этих самых разговоров и выполняет свои функции хорошо.
⇡#
**«Железо» и производительность**
Главная гордость Xiaomi Mi 9 – это, конечно, аппаратная платформа. Mi 9 – первый смартфон в официальной продаже с Qualcomm Snapdragon 855 на борту. Про эту систему-на-чипе мы уже писали и тестировали ее, но именно флагман Xiaomi – первый, на котором удалось ее попробовать в по-настоящему рабочих условиях (а не в специально созданном эталонном смартфоне).
Это первая платформа Qualcomm, сделанная с применением 7-нм технологического процесса. Впрочем, Huawei и Apple выпустили свои 7-нм чипы раньше. Она состоит из восьми ядер, организованных ранее не виданным образом: одно высокопроизводительное ядро Kryo 485 Gold с тактовой частотой 2,84 ГГц, три Kryo 485 Gold, работающие на частоте до 2,42 ГГц, и четыре Kryo 485 Silver частотой до 1,8 ГГц. Графическая подсистема – Andreno 640. Qualcomm утверждает, что она дает прирост графической производительности на 20 % относительно показателей Adreno 630, но тактовую частоту не называет.
Результаты бенчмарков говорят сами за себя – сравнение не с прямыми конкурентами, а со смартфонами в полтора-два раза более дорогими я уже приводил в обзоре Samsung Galaxy S10+: по общей производительности платформы с Snapdragon 850 может сегодня сравниться только Apple A12 Bionic, который используется в iPhone последнего поколения. Новый "Снэпдрэгон" спокойно кладет на лопатки и Kirin 980, и Samsung Exynos 9820. Xiaomi Mi 9 действительно очень быстр, и да, цифра в 20 % прироста графической производительности вполне соответствует действительности.
Xiaomi Mi 9 на сегодняшний день – официально самый мощный смартфон на Android из тех, что можно купить. Его скоро догонят все остальные аппараты со Snapdragon 855 на борту, но пока – да, это возможность купить за 35-40 тысяч рублей смартфон, который во всех бенчмарках обходит флагманы Huawei и Samsung. Другое дело, что в реальных задачах они проявляют себя примерно одинаково: все игры работают на максимальных настройках, время загрузки приложений почти не отличается. Разница, пожалуй, только в запасе мощности на ближайшие годы (что у Samsung, что у Huawei относительно слабые графические подсистемы, которые с трудом тягаются еще с прошлогодней Snapdragon 845).
Самый значительный прорыв Qualcomm Snapdragon 855 демонстрирует в нейросетевых вычислениях. Специально брошенный на эти задачи модуль демонстрирует 2,5-кратный прирост относительно показателей Snapdragon 845. В практической сфере на Mi 9 это едва ли сказывается – по сути, искусственный интеллект здесь применяется только в камере для «умного» улучшения снимков.
Система охлаждения работает хорошо. В бенчмарке CPU Throttling Test зафиксировано понижение частоты до 87 % от максимума при средней производительности в 165 GIPS. Это очень достойный показатель, не слишком-то далекий от рекордных. Перегрев и понижение кадровой частоты в играх маловероятны.
Стандартная версия Xiaomi Mi 9 поставляется с 6 или 8 Гбайт оперативной памяти и накопителем на 128 Гбайт. У нас на тесте побывала именно версия 6/128 Гбайт – и не могу сказать, что я ощутил нехватку «оперативки»: это можно будет почувствовать только при более длительном использовании, нежели привычные две недели, которые обычно отводятся на тест. Расширить объем энергонезависимой памяти, к сожалению, нельзя – слот для карты памяти почему-то отсутствует. Впрочем, у Xiaomi это уже традиция. Также существует версия Xiaomi Mi 9 с полупрозрачным корпусом – она оснащена 12 Гбайт оперативной памяти и 256 Гбайт постоянной.
⇡#
**Связь и беспроводные коммуникации**
Xiaomi не заявляет о скоростях, с которыми работает LTE-модем, установленный в Mi 9. По умолчанию в Snapdragon 855 используется модем, поддерживающий LTE Cat.20: теоретическая скорость скачивания данных может достигать 2 Гбит/с, передачи – 150 Мбит/с. Подтвердить или опровергнуть такие скорости я не могу — найти сеть со столь мощным каналом не так-то просто. Но в любом случае проблем с 4G-соединением я не испытывал, Mi 9 почти всегда поддерживал очень высокую скорость и стабильность соединения. Все необходимые диапазоны для корректной работы с LTE в России в глобальной версии смартфона поддерживаются.
Все ключевые беспроводные модули на месте: двухдиапазонный Wi-Fi 802.11a/b/g/n/ac (входящий в состав Snapdragon 855 Wi-Fi-модем умеет работать и с 802.11ax, но в Mi 9 это не используется), Bluetooth 5.0 (с поддержкой aptX и aptX HD), NFC (есть поддержка Google Pay) и даже ИК-порт. Навигационный модуль работает как с GPS (A-GPS), ГЛОНАСС и BeiDou, так и с Galileo и QZSS. Используется двухдиапазонный GPS – увидеть его преимущества смогут в основном спортсмены, которые записывают маршруты своих тренировок. В режиме обычной навигации я не заметил разницы с однодиапазонным GPS — точность и скорость определения местоположения кажутся обычными (то есть все точно и быстро).
Xiaomi Mi 9 – очередной смартфон с тремя тыльными камерами. С момента выхода Huawei P20 Pro прошел ровно год, и сейчас подобный финт не удивляет уже никого. Схема реализации модуля, в свою очередь, перенесена с Huawei Mate 20 Pro: три камеры отвечают за три фокусных расстояния, позволяя переключаться между ними на ходу. Основная камера базируется на 48-мегапиксельный модуле Sony IMX 586 (физические размеры – 1/2’’, размер отдельного пикселя – 0,8 мкм), который мы видели на Honor View 20 (и описывали, в чем фишка мобильных матриц со столь большим разрешением). Она работает с объективом светосилой
*ƒ*/1,8 и обеспечивает снимки с привычным фокусным расстоянием (26 мм в 35-мм эквиваленте). По умолчанию она снимает с разрешением 12 мегапикселей, 48-мегапиксельный режим надо активировать отдельно.
Вторая камера оснащена 12-мегапиксельным сенсором Samsung SK3M5 (1/3,4’’, размер пикселя – 1,0 мкм) с объективом светосилой
*ƒ*/2,2, который обеспечивает почти двукратный гибридный зум (в EXIF прописывается фокусное расстояние примерно на треть больше, чем на главной камере, но по факту мы видим заметно большее приближение). Третья – с 16-мегапиксельным сенсором Sony IMX481 (1/3’’) с объективом той же светосилы и фокусным расстоянием в 12 мм. Переключаться между камерами можно, выбирая одну из двух иконок – центральная активирует зум, а дополнительная, в нижнем левом (при вертикальном хвате) углу предлагает «включить режим рыбьего глаза».
Все три камеры оснащаются гибридной системой автофокуса (контрастный с лазерным дальномером + фазовый), что выгодно отличает Xiaomi Mi 9 от того же Samsung Galaxy S10+, у которого широкоугольная камера лишена автофокуса. А вот то, что отличает Mi 9 не в ту сторону, в которую нам бы хотелось, уже от всех – это полное отсутствие системы оптической стабилизации. Ее нет ни на одной из камер, входящих в тройной модуль. И если центральная, за счет светосильной оптики, позволяет делать нормальные снимки при недостаточном освещении, две остальные в условиях неидеального свете начинают барахлить.
Особенно это печалит при съемке портретов – получить картинку с хорошей детализацией тяжело даже при довольно ярком искусственном свете, а о ночной съемке даже говорить не приходится. Также заметно падает детализация (и проявляются шумы) при съемке со сверхшироким углом обзора. Увы, в погоне за актуальностью и б
*о*льшими возможностями для пользователя Xiaomi потеряла очень важную деталь. В остальном портретный режим (доступный как с активацией зума, так и без – модель можно снимать с размытием в полный рост) вполне неплох – «рисует» боке качественно, объект от фона отделяет более-менее корректно.
Впрочем, с фокусным расстоянием как в 27, так и в (примерно) 54 мм можно получить хорошие снимки ночью даже при совсем слабом освещении, но для этого необходимо активировать специальный «ночной» режим. В нем камера делает восемь кадров с различной экспозицией, объединяя их затем в один, с расширенным динамическим диапазоном и детализацией в деталях.
Возможности по использованию смартфона это, конечно, расширяет, но картинка получается нестабильная – иногда может впечатлить, иногда из глаз от излишнего «дотягивания» деталей может плеснуть кровь. В портретном режиме и с широкоугольной камерой этот режим недоступен.
На месте и «искусственный интеллект», он включен по умолчанию. Смартфон определяет различные сцены и старается не просто подобрать под них оптимальные настройки, а поработать соответствующим образом с насыщенностью цветов и цветовой температурой. Тут верно то же самое замечание, что и про ночной режим: во многих случаях та обработка, которую выбирает смартфон, смотрится уместно. Но далеко не всегда – с насыщенностью он часто перебирает.
Интерфейс камеры в Mi 9 почти не изменился – про дополнительную иконку я сказал выше. В остальном и оформление, и большая часть возможностей те же, что и, например, на Mi MIX 3. Опять по умолчанию на снимки ставится водяной знак, сообщающий, на какой смартфон вы их сделали. Не забудьте сразу после покупки отключить это в настройках. Есть режим с возможностью ввода настроек вручную, склейка панорам, на экран можно вывести оригинально выглядящий виртуальный горизонт.
В рейтинге DxO Mark Xiaomi Mi 9 почти сразу после выхода занял очень высокую позицию. Как я в свое время очень хотел поспорить по поводу этого же в отношении Mi MIX 3, так и здесь сумма в 107 баллов мне кажется заметно натянутой. Да, большие возможности для зума – это хорошо. Да, с цветопередачей и работой искусственного интеллекта порядок, детализация замечательная, а динамический диапазон хорош. Но по потенциалу тыльной камеры Mi 9 очень сильно бьет отсутствие оптического стабилизатора – за счет ночного режима она позволяет сделать приличные кадры с недостаточным освещением, но проблемы с портретами или простой съемкой в стиле «достал и снял», без 4-секундного ожидания, пока смартфон все запишет и склеит, сильно мешают всерьез причислять этот смартфон к элите по качеству съемки. Также не хватает программной коррекции краевых искажений при съемке на широкоугольную камеру. Да, Xiaomi прямо называет это «режимом рыбьего глаза», но тактика «мы же предупреждали» в данном случае работает хуже, чем забота о пользователе. И последняя претензия – к определению автоматической экспозиции. Если за этим не следить, кадры часто получаются пересвеченными.
С видеосъемкой порядок – есть и поддержка 4К-разрешения с частотой до 60 кадров в секунду, и замедленное видео в Full HD с частотой до 240 кадров в секунду. Имеется эффективная система стабилизации при съемке с любым разрешением, но частотой не более 30 кадров в секунду.
Фронтальная камера в Xiaomi Mi 9 одинарная и, пожалуй, можно сказать, что и ординарная – 20 мегапикселей, ƒ/2,0, фиксированный фокус. Тот же самый модуль, что и в Xiaomi Mi 8. Несмотря на отсутствие специально предназначенной для этого дополнительной камеры, доступно программное размытие заднего фона и возможность накладывать различные оптические искажения и цветовые фильтры. Бьютификатор очень мощный, но отключаемый, беспокоиться из-за него не нужно.
В Xiaomi Mi 9 установлен аккумулятор емкостью 12,54 Вт·ч (3300 мА·ч, 3,8 В). Несмотря на увеличенный в сравнении с экраном Mi 8 дисплей, аккумулятор «похудел» на 100 мА·ч. Чудес в мире энергопотребления не бывает – Snapdragon 855 может быть сколь угодно энергоэффективным, а OLED-дисплей — щадящим, но свой рабочий день при серьезной нагрузке Xiaomi Mi 9 проживает со скрипом. При экстремальной нагрузке уже стоит озаботиться внешним аккумулятором.
Зато в нашем традиционном тесте с воспроизведением HD-видео на максимальной яркости, при включенном беспроводном соединении, с действующими обновлениями, Xiaomi Mi 9 продемонстрировал замечательный результат – 17 с лишним часов.
Xiaomi Mi 9 поддерживает быструю зарядку, причем как проводную (27 ватт), так и беспроводную (20 ватт), адаптеры для этого надо приобретать отдельно, причем в едином комплекте (стоит, как обычно и бывает у Xiaomi, очень немного — $20). В коробке с телефоном обнаруживается 18-ваттное зарядное устройство Quick Charge 3, способное зарядить смартфон примерно за полтора часа.
Xiaomi Mi 9 остался верен традициям в главном – это снова самый недорогой актуальный смартфон с флагманской платформой Qualcomm на борту. Достаточно ли этого, чтобы вывести очередное поколение главного телефона Xiaomi в топы продаж, решайте сами.
В остальном Mi 9 – гаджет не столь однозначный. Три камеры – это здорово, но разнообразие доступных фокусных расстояний в данном случае не подкрепляется качеством съемки, привычным для современных флагманов: не хватает оптического стабилизатора, есть вопросы к системе обработки. Дизайн аккуратный, современный, но Xiaomi никогда не делала по-настоящему красивые смартфоны — не сделала и сейчас. Операционная система сыровата. Снова сочетается отсутствие мини-джека и отсутствие же заявленной влагозащиты. Есть проблемы с олеофобным покрытием. Перечислять, на самом деле, можно довольно долго, только надо помнить, что мы говорим о смартфоне за 35-40 тысяч рублей, а не за 70 – в качестве альтернативы которым и создан Mi 9.
А в соревновании с OnePlus 6T, Honor View 20 или Huawei P20 новый флагман Xiaomi выглядит довольно уверенно – в первую очередь опять же за счет свежайшей аппаратной платформы.
**Достоинства:** **Недостатки:** |
984,346 | Обзор ASUS ZenBook 15 UX533FD: самый большой ультрабук | Не так давно на нашем сайте вышел обзор ZenBook 14 UX433FN. На мой взгляд, у ASUS получился весьма достойный ультрабук с 14-дюмовым экраном. Фишка этого устройства заключается в том, что при таких характеристиках он оказался компактнее многих других систем, оснащенных 13-дюймовыми дисплеями. Что ж, схожие впечатления складываются и при знакомстве с ZenBook 15 UX533FD. Как я уже сказал, перед вами и самый большой ультрабук, который мы тестировали за последнее время, и в то же время самая компактная «пятнашка», побывавшая в редакции 3DNews. Вот таким разносторонним оказывается герой сегодняшнего обзора.
⇡#Технические характеристики, комплектация и ПО
На данный момент времени ультрабуки ZenBook делятся на три серии, которые комплектуются 13-, 14- и 15-дюймовыми дисплеями. В этой статье пойдет речь исключительно о самых больших ультрабуках, то есть о моделях под названием ZenBook 15. Все возможные конфигурации этого лэптопа представлены в таблице ниже.
|
ASUS ZenBook 15 UX533FD
|
Дисплей |15,6'', 1920 × 1080, IPS, матовый
15,6'', 1920 × 1080, IPS, глянцевый
|
Центральный процессор |Intel Core i7-8565U, 4/8 ядра/потоков, 1,8 (4,6) ГГц, 15 Вт
|Intel Core i5-8265U, 4/8 ядра/потоков, 1,6 (3,9) ГГц, 15 Вт
|
Графика |Intel HD Graphics 620
NVIDIA GeForce GTX 1050 Max-Q, 2 или 4 Гбайт
|
Оперативная память |8 или 16 Гбайт DDR3-2400, встроенная
|
SSD |256 или 512 Гбайт, PCI Express x2 3.0
1 Тбайт, PCI Express x4 3.0
|
Интерфейсы |1 × HDMI
1 × USB 3.1 Gen2 Type-C
1 × USB 3.1 Gen2 Type-A
1 × USB 3.1 Gen1 Type-A
1 × 3,5-мм мини-джек акустика/микрофон
1 × SD
|
Встроенный аккумулятор |73 Вт·ч
|
Внешний блок питания |90 Вт
|
Размеры |354 × 220 × 18 мм
|
Масса |1,59 кг
|
Операционная система |Windows 10 x64 Home
Windows 10 x64 Pro
|
Гарантия |2 года
|
Цена в России |От 80 000 рублей
Производитель заявляет, что все ZenBook 15 соответствуют военному стандарту надежности MIL-STD 810G. Тестирование на соответствие этому стандарту включало в себя проверку в самых суровых условиях: на высоте, при экстремальных температурах и влажности. Подробнее об этом вы можете прочитать здесь.
Более интересными оказываются модели, оснащенные мобильной графикой GeForce GTX 1050 Max-Q, и к нам в тестовую лабораторию приехал именно такой лэптоп, в котором для GPU выделено 2 Гбайт памяти. В целом рассматриваемая модель 15-дюймового «Зенбука» имеет практически топовую конфигурацию. Здесь есть Core i7-8565U, 16 Гбайт оперативной памяти DDR4-2400 и SSD на 512 Гбайт. На момент написания статьи в продаже такую версию ZenBook 15 я не нашел, однако схожая версия, но с терабайтным накопителем в московской рознице стоит в среднем 142 000 рублей. Что интересно, модель с Core i5, 8 Гбайт ОЗУ, 256 Гбайт SSD и без предустановленной Windows 10 стоит в среднем 80 000 рублей.
Беспроводная сеть в устройстве реализована при помощи контроллера Intel 9560, который поддерживает стандарты IEEE 802.11b/g/n/ac с частотой 2,4 и 5 ГГц и максимальной пропускной способностью до 1734 Мбит/с и Bluetooth 5.0.
В комплекте с ASUS ZenBook 15, что приятно, идет компактный блок питания мощностью 90 Вт. А еще в коробку положили чехол для ноутбука и переходник с RJ-45 на USB.
⇡#Внешний вид и устройства ввода
В продаже вы встретите ZenBook 15 двух цветов. К нам в редакцию приехала версия серебряного цвета. Не менее красиво выглядит и синяя модификация — такого цвета был ZenBook 14 UX433FN, который мы недавно тестировали.
С дизайном «Зенбука», думаю, все ясно изначально: устройство собрано в металлическом корпусе с узнаваемой внешностью. Материал в конструкции ноутбука используется практичный и немаркий.
Крышка ZenBook 15 совершенно спокойно поднимается одной рукой, при этом шарниры в ультрабуке используются действительно тугие. Они получили название ErgoLift и позволяют четко позиционировать экран, который, кстати, можно развернуть на угол до 145 градусов. При открытии крышки основание приподнимается на три градуса. Такой наклон, по мнению производителя, обеспечивает больший комфорт для пользователя, создает дополнительное пространство для циркуляции воздуха вокруг нижней панели корпуса и способствует получению более чистого звука с улучшенными басами.
Но давайте погорим о главной «фишке» ZenBook 15 — о 15-дюймовом экране NanoEdge. Диагональ дисплея составляет 15,6 дюйма, а его разрешение соответствует стандарту Full HD. Экран занимает 92 % площади крышки ноутбука. Толщина верхней рамки дисплея достигает 6,4 мм, боковых — ровно 3 мм, нижняя рамка имеет толщину 4,5 мм. В результате ZenBook 15 UX533FD стал компактнее модели предыдущего поколения (ZenBook 15 UX530) на 12 %.
Вот и получается, что на фоне большинства ультрабуков, в которых используются 13- и 14-дюймовые матрицы, новинка ASUS выглядит довольно большой. Как никак, экран с диагональю в 15 дюймов — это экран с диагональю в 15 дюймов. А вот на фоне «обычных» лэптопов ZenBook 15 смотрится весьма и весьма компактно. Длина рассматриваемой модели составляет 354 мм, а глубина — 220 мм. У какого-нибудь Dell Inspiron 7567 эти параметры составляют 385 и 275 мм соответственно — разница с «Зенбуком» просто огромнейшая. У недавно протестированной игровой модели ASUS ROG Strix SCAR II (GL504GS), которая тоже оснащена дисплеем с тонкими рамками, длина равна 361 мм, а глубина — 262 мм. Все равно разница ощутима.
К тому же толщина героя обзора составляет всего 18 мм, а его масса — либо 1,59 кг, если речь идет о модели с матовым экраном, либо 1,69 кг, если ультрабук оснащен глянцевым дисплеем. В общем, носить ZenBook 15 очень удобно. Полагаю, в небольшой дамской сумочке лэптоп вряд ли поместится, но в рюкзаке — запросто.
Все основные интерфейсы ультрабука расположены по бокам корпуса. Слева распаяны только USB 3.1 Gen1 A-типа и 3,5-мм мини-джек. Остальное место на торце занимает решетка системы охлаждения — через нее выдувается нагретый воздух. Справа расположены HDMI-выход, USB 3.1 Gen2 A-типа, USB 3.1 Gen2 C-типа и слот для SD-карт.
В отличие от моделей ZenBook 13 и ZenBook 14, которые могут комплектоваться тачпадом NumberPad (он играет роль цифрового клавиатурного блока для быстрого ввода чисел), ZenBook 15 в таком аксессуаре не нуждается, так как размеры ультрабука позволили разместить справа полноценный цифровой блок. В остальном же клавиатуры у «Зенбуков» полностью повторяют друг друга.
Что важно, клавиатура удобна в обращении. Она имеет трехуровневую подсветку белого цвета, правда, на серебряном фоне символы в дневное время суток хорошо различимы только при использовании максимального уровня яркости. Ход клавиш составляет 1,4 мм.
К сенсорной панели никаких претензий у меня не возникло — она не такая маленькая, как в 14-дюймовом «Зенбуке». Поверхность тачпада приятна на ощупь — спасибо стеклянному покрытию. В целом сенсорная панель нормально распознает жесты, нажатие на нее сопровождается отчетливым, но негромким щелчком. В работе тачпад ведет себя вполне адекватно — проверено в компьютерной карточной игре «Гвинт». Естественно, поддерживаются все мультитач-жесты Windows 10.
Что касается веб-камеры, то в ZenBook 15 UX533FD, как и в других ультрабуках серии, используется стандартная матрица с разрешением 720p и частотой 30 Гц — со всеми вытекающими последствиями. Хорошего качества изображение реально получить только в яркую солнечную погоду, во всех остальных случаях картинка оказывается невзрачной и очень шумной.
Добавлю, что разблокировка операционной системы возможна в том числе и при помощи идентификации лица (технология Windows Hello), а управление различными функциями — с помощью системы голосовых команд (виртуальная ассистентка Cortana).
⇡#Внутреннее устройство и возможности апгрейда
Ноутбук довольно просто разбирается, но учтите, что для этого потребуется отвертка со шлицем типа Torx.
ASUS ZenBook 15 обладает довольно эффективной (для ультрабуков) системой охлаждения, даже если речь идет об устройствах с дискретной графикой. Тепло от CPU и GPU отводит кулер, состоящий их двух теплотрубок и двух вентиляторов тангенциального типа.
Разбирать «Зенбук» имеет смысл тем пользователям, которые возьмут модель с неемким SSD, ведь его можно со временем заменить. В тестовом ультрабуке установлен твердотельный накопитель Western Digital WDC PC SN520 SDAPNUW-512G-1002 объемом 512 Гбайт. Остальные компоненты в ZenBook 15 апгрейду не подлежат — 16 Гбайт оперативной памяти DDR4-2400 распаяно непосредственно на материнской плате, а больше менять и нечего.
Так как в лэптопе установлена GeForce GTX 1050 в дизайне Max-Q, то тестировать устройство в современных ААА-проектах с использованием высоких настроек качества графики нет никакого смысла. Тем не менее на ZenBook 15 UX533FD в разрешении Full HD мы запускали следующие игры:
Производительность в играх определялась при помощи хорошо известной программы FRAPS. С ее помощью мы получаем время рендеринга каждого кадра. Затем при помощи утилиты FRAFS Bench Viewer рассчитывается не только средний FPS, но и 99-й процентиль. Использование 99-го процентиля вместо показателей минимального количества кадров в секунду обусловлено стремлением очистить результаты от случайных всплесков производительности, которые были спровоцированы не связанными напрямую с работой основных компонентов платформы причинами.
Измерение производительности процессора и памяти производилось при помощи следующего ПО:
Тестирование дисплея производилось при помощи колориметра X-Rite i1Display Pro и приложения HCFR.
Время работы ноутбука от аккумулятора проверялось в трех режимах. Первый вариант нагрузки — веб-серфинг — подразумевает поочередное открытие и закрытие вкладок сайтов 3DNews.ru, Computeruniverse.ru и Unsplash.com с интервалом 30 секунд. Для этого теста используется браузер Google Chrome с включенными опциями «Блокировать данные и файлы cookie сторонних сайтов» и «Не разрешать сайтам сохранять данные». Во втором режиме воспроизводится видео формата x265 (HEVC) в стандартном плеере Windows 10 с активированной функцией повтора. Во всех случаях выставлялась одинаковая яркость дисплея в 200 кд/м
2.
В играх и других приложениях представлены результаты следующих ноутбуков:
|
Участники тестирования
|
Модель |
Экран |
Процессор |
Оперативная память |
Графика |
Накопитель |
Батарея
|HUAWEI MateBook X Pro
|13,9'', 3000 × 2000, LTPS
|Intel Core i5-8250U, 4/8 ядра/потоков, 1,6 (3,4) ГГц, 15 Вт
|8 Гбайт, DDR3-2133, два канала
|HD 620 + GeForce MX150
|SSD, 256 Гбайт, PCI Express x4 3.0
|57,4 Вт⋅ч
|MSI PS42 8RB
|14'', 1920 × 1080, IPS
|Intel Core i7-8550U, 4/8 ядра/потоков, 1,8 (4,0) ГГц, 15 Вт
|16 Гбайт, DDR3-2133, один канал
|HD 620 + GeForce MX150
|SSD, 512 Гбайт, PCI Express x4 3.0
|50 Вт⋅ч
|ASUS ZenBook 14 UX433FN
|14'', 1920 × 1080, IPS
|Intel Core i7-8565U, 4/8 ядра/потоков, 1,8 (4,6) ГГц, 15 Вт
|16 Гбайт, DDR3-2133, один канал
|HD 620 + GeForce MX150
|SSD, 512 Гбайт, PCI Express x2 3.0
|50 Вт⋅ч
|ASUS ZenBook 15 UX533FD
|15,6'', 1920 × 1080, IPS
|Intel Core i7-8565U, 4/8 ядра/потоков, 1,8 (4,6) ГГц, 15 Вт
|16 Гбайт, DDR3-2400
|HD 620 + GeForce GeForce GTX 1050 Max-Q
|SSD, 512 Гбайт, PCI Express x2 3.0
|73 Вт⋅ч
При покупке ZenBook 15 вы можете выбрать модель как с глянцевым, так и с матовым покрытием дисплея. Это хорошая дополнительная опция, и лично я предпочитаю матовую, антибликовую поверхность — с ней удобнее работать в дневное время суток. В младших моделях используется IPS-матрица AU Optronics B140HAN03.2, в «пятнашке» — BOE NV156FHM-N63. Я специально акцентирую на этом ваше внимание, так как в младших «Зенбуках», на мой взгляд, применяются более качественные дисплеи.
Смотрите сами: контрастность IPS-матрицы BOE NV156FHM-N63 составляет всего 926:1. Поэтому ZenBook 15 выдает не такую глубокую картинку, например при просмотре фильмов. Цветовая температура экрана держится в районе 7500 К, дисплей тянет в сторону холодных оттенков. Несколько занижена гамма — 2,06 против стандартных 2,2. Все эти характеристики сказались на работе матрицы с оттенками серого: среднее отклонение составляет 8,11 при максимальном значении 17,88.
Минимальная яркость BOE NV156FHM-N63 составляет 14 кд/м
2, максимальная — всего 266 кд/м 2. В принципе, такой светимости достаточно, чтобы комфортно работать в офисе в дневное время суток.
В тесте ColorCheker, использующем 24 цветовых шаблона, средняя ошибка составила 5,12. Для обычного использования подобные параметры матрицы некритичны, но дизайнерам и художникам «Зенбук» я бы не посоветовал. С учетом погрешностей мы не получили 100 % охвата по стандарту sRGB — треугольник заметно сдвинулся правее.
Как и в случае с другими IPS-матрицами, от Glow-эффекта никуда не денешься: он отчетливо виден на черном поле, но на цветных изображениях его практически не замечаешь. Нет ШИМ — или ее частота слишком высока, чтобы человеческий глаз мог ее заметить. Так что используемую LED-подсветку можно отнести к разряду Flicker-Free-решений во всем рабочем диапазоне. Заявленные углы обзора — 178 градусов по вертикали и горизонтали — соответствуют действительности.
По качеству звучания ZenBook 15 не сильно выделяется на фоне своих младших собратьев: динамики ультрабука установлены в его небольшом корпусе, а потому, например, сочного баса при прослушивании музыкальных композиций от лэптопа вы не дождетесь. В целом звук у тестовой модели плоский и скромный, хотя уровень громкости у протестированного образца — приличный.
Во всех новейших «Зенбуках» используются 4-ядерные процессоры семейства Whiskey Lake. По сути, перед нами тюнингованные чипы Kaby Lake Refresh. В плане архитектуры ничего не изменилось — возросли только частоты. Так, при однопоточной нагрузке частота Core i7-8565U достигает 4,6 ГГц, а при загрузке всех четырех ядер — 4,1 ГГц. Флагманский Kaby Lake Refresh, Core i7-8555U, в таких же условиях работает на частотах 4,0 и 3,7 ГГц соответственно.
Прибавку в 400 МГц можно назвать хорошей, но, как это часто бывает с ультрабуками, многое здесь зависит от системы охлаждения устройства. И не только от нее. Например, программа LinX настолько сильно нагружает центральный процессор, что частота Core i7-8565U, установленного в ZenBook 15, практически моментально снижается с 4,1 до 1,9 ГГц. Что ж, используя это приложение, мы выходим за теплопакет в 15 Вт, и ничего здесь не поделать. За время стресс-тестирования самое горячее ядро 4-ядерника нагрелось до 90 градусов, но после сброса частоты температура процессора держится в среднем около 72-74 градусов Цельсия. При этом ультрабук работает очень тихо — с расстояния в 30 см уровень шума составляет всего 36 дБА.
Что интересно, в других многопоточных программах частота Core i7-8565U в основном держалась у отметки 3,1 ГГц. Это, на самом деле, отличный показатель!
Игры нагружают систему охлаждения еще сильнее, так как в работу включается еще и GPU. В ZenBook 15 используется Max-Q-версия GeForce GTX 1050, частота графического чипа для которого и не должна быть высокой. Так оно и есть — в играх она меняется в диапазоне от 1519 до 1734 МГц. Видеоядро при этом периодически нагревается до 79 градусов Цельсия, а самая горячая «голова» процессора Intel нагрелась до 93 градусов. В играх ноутбук работает заметно громче — с того же расстояния шумомер зафиксировал 41,2 дБА, хотя очень шумной работу «Зенбука» назвать все равно нельзя.
⇡#Производительность процессора, оперативной памяти и дисковой подсистемы
Как я уже сказал, работу Core i7-8565U на частоте 3+ ГГц можно охарактеризовать как отличный результат. Это же подтверждают и наши тесты. Нет смысла особо разглагольствовать: в таблице ниже видно, что ZenBook 15 оказывается быстрее всех ультрабуков, когда-либо протестированных нами.
|
Intel Core i5-8250U [HUAWEI MateBook X Pro] |
Intel Core i7-8550U [MSI PS42 8RB] |
Intel Core i7-8565U [ASUS ZenBook 14 UX433FN] |
Intel Core i7-8565U [ASUS ZenBook 15 UX533FD] |
Прирост/убывание быстродействия, % (относительно модели MSI PS42 8RB)
|
Corona 1.3, с (меньше — лучше) |435
|416
|373
|294
|29
|
WinRAR 5.40, с (меньше — лучше) |764
|586
|523
|486
|17
|
Blender 2.76, с (меньше — лучше) |353
|346
|340
|271
|22
|
x265 HD Benchmark, FPS (больше — лучше) |9,9
|9,95
|10,96
|14,4
|45
|
CINEBENCH R15, баллы (больше — лучше) |530
|524
|583
|706
|35
Согласно техническим характеристикам, уровень быстродействия накопителя WDC PC SN520 SDAPNUW-512G-1002 в линейных операциях чтения и записи составляет 1700 и 1400 Мбайт/с соответственно. Однако различные приложения показывают, что реальная скорость этого SSD оказывается чуть ниже. Это связано с тем, что твердотельный накопитель подключен к M.2-порту, к которому подведено всего две линии PCI Express 3.0, а не четыре. Точно так же работает, например, накопитель в HP Spectre 13. Тем не менее все равно можно сказать, что дисковая подсистема у ASUS ZenBook 15 очень быстрая. Например, потому, что при выполнении случайных операций чтения и записи WDC PC SN520 SDAPNUW-512G-1002 ничто не ограничивает.
Кстати, на сайте производителя указано, что к интерфейсу PCI Express x2 3.0 подключены только SSD объемом 256 и 512 Гбайт. Терабайтный твердотельный накопитель использует полноценные четыре линии PCI Express 3.0.
Лаборатория 3DNews протестировала много ультрабуков с дискретной графикой. В основном в компактных ноутбуках используется GeForce MX150, которой хватает разве что для простеньких игр с использованием низких или средних настроек качества графики. В ZenBook 15 применяется Max-Q-версия GeForce GTX 1050, оснащенная 2 Гбайт GDDR5-памяти. Результаты в 3DMark Time Spy говорят, что такое решение быстрее, например, MSI PS42 8RB на 48 %.
Конечно же, вместе с ZenBook 15 становится комфортнее играть во многие современные игры. И все же если речь идет о современных ААА-проектах, то владельцу такого ультрабука придется в большинстве случаев устанавливать средние настройки качества графики в разрешении Full HD.
Я не стал тестировать ZenBook 15 в большом количестве ресурсоемких игр и сравнивать этот ноутбук с игровыми моделями, в которых используется графика уровня GeForce GTX 1050 и GeForce GTX 1050 Ti. Все же мы имеем дело с ультрабуком, к тому же графика оснащена всего 2 Гбайт памяти. Наличие дискретной графики в ультрабуках — это скорее приятное дополнение.
В ноутбук установлен литий-полимерный аккумулятор из четырех ячеек емкостью 73 Вт⋅ч. По внутренним тестам производителя, ноутбук может продержаться до 17 часов. Наша методика, по всей видимости, нагружает систему сильнее, а потому еще ни одному ноутбуку, побывавшему в лаборатории 3DNews, не удавалось проработать хотя бы 10 часов даже в самом легком режиме — режиме веб-серфинга. Вот и ZenBook 15 без подключения к электросети осилил лишь без малого 9 часов. Тем не менее такой результат смело можно считать отличным, ведь мы выставляем довольно высокую яркость дисплея — такую, при которой удобно работать в дневное время суток.
|
Время автономной работы, 200 кд/м 2
|
Веб (открытие вкладок в Google Chrome) |
8 ч 58 мин
|
Просмотр видео (x265, HEVC, 4K) |
8 ч 26 мин
Мне ZenBook 15 UX533FD понравился. Если сравнивать его с 13- или 14-дюймовыми моделями, то это, конечно, довольно крупный ноутбук, однако при сопоставлении с прочими 15-дюймовыми мобильными компьютерами оказывается, что перед вами едва ли не самый компактный и легкий лэптоп в классе. Таким устройством удобно пользоваться, если вам постоянно необходим довольно мощный ПК под рукой. На мой взгляд, идея легкого компактного лэптопа, оснащенного тем не менее 15-дюймовым Full HD-экраном, оказалась вполне жизнеспособной.
Ноутбук качественно скроен и оснащен хорошей (для ультрабуков) системой охлаждения, поэтому на фоне конкурентов (других ультрабуков) он выделяется высоким уровнем производительности. К тому же в системе используется более быстрая дискретная графика GeForce GTX 1050 в Max-Q-дизайне, значительно опережающая GeForce MX150. А еще под нагрузкой лэптоп работает довольно тихо.
К плюсам ZenBook 15, несомненно, можно отнести высокий уровень функциональности, удобную полноценную клавиатуру и наличие практически всех современных интерфейсов. Ну а встроенный аккумулятор позволяет лэптопу работать очень долго.
К минусам — нет, скорее к пожеланиям — я отнесу два момента. Во-первых, хотелось бы увидеть в этом ультрабуке более качественный дисплей. Матрицу BOE NV156FHM-N63 нельзя назвать плохой, но все же ей далеко до тех экранов, которые встречаются в более компактных моделях. Во-вторых, на момент написания статьи разницу в цене между моделями с 8 и 16 Гбайт оперативной памяти можно смело назвать колоссальной. 8 Гбайт ОЗУ в 2019 году — это несерьезно. С учетом того, что оперативную память в ультрабуке увеличить самостоятельно никак нельзя, хотелось бы, чтобы ZenBook 15 с 16 Гбайт памяти умещался в бюджет большего количества потенциальных покупателей. |
984,361 | Попытка номер три: обзор социальной AI-сети «Яндекс.Аура» | Упорству команды разработчиков «Яндекса» в попытках получить долю уже поделённого пирога на рынке социальных сетей можно только позавидовать. Ещё в далёком 2007 году компания предприняла попытку закрепиться в этом сегменте с выпуском собственного сервиса для ведения личных дневников и блогов «Я.ру» и приобретением службы поиска работы и сети деловых контактов «Мой круг». Тогда попытка оказалась так себе: первый проект продержался на плаву ровно 7 лет и был закрыт по причине потери к нему интереса со стороны пользовательской аудитории, вторая площадка просуществовала под крылом «Яндекса» на год дольше и в 2015-м была продана компании «Тематические медиа». Казалось бы, в этом вопросе окончательно поставлена точка, но не тут-то было! После четырёхлетнего затишья российский IT-гигант решил сделать третий заход на рынок соцсетей — на сей раз с проектом «Яндекс.Аура», созданным с прицелом на мобильную аудиторию и в полной мере использующим технологии машинного обучения и системы искусственного интеллекта (Artificial Intelligence, AI) на базе нейронных сетей.
В настоящий момент подключиться к социальной сети «Яндекс.Аура» можно только по приглашениям от других пользователей и только при наличии аккаунта в «Яндекс.Почте» (на него высылается инвайт с заветной ссылкой). Сам разработчик объясняет такое ограничение особенностями программы бета-тестирования сервиса. На самом же деле это обычное стремление компании подогреть интерес публики к новинке на начальном этапе без каких-либо финансовых вложений, и не более того. Достаточно вспомнить, что всё это мы уже проходили на примере социальной сети Google+, вокруг которой тоже сначала создавался искусственный ажиотаж с рассылками приглашений, а теперь осуществляются рассылки несколько иного рода — о предстоящем закрытии этой так и не взлетевшей площадки. Впрочем, не будем о грустном.
Работает «Аура» внутри доступного для платформ Android и iOS универсального и довольно увесистого (под 300 Мбайт!) мобильного приложения «Яндекс». Увы, отдельного программного клиента для социальной сети не предусмотрено, веб-версии тоже. После активации приглашения значок нового сервиса становится доступным на главной странице приложения «Яндекс».
Перед началом работы с «Аурой» потребуется заполнить профиль — указать дату рождения и пол, определиться со списком интересов и загрузить фотографию, обязательно настоящую.
Как уже говорилось выше, ключевой особенностью «Ауры» является искусственный интеллект. Он автоматически подбирает пользователю возможных друзей и подходящие сообщества на основании данных о его возрасте, интересах и местонахождении. С помощью AI-технологий социальная сеть умеет находить людей с похожими увлечениями, единомышленников и интересных собеседников, живущих неподалёку. При поиске новых друзей сервис также учитывает окружение пользователя, то есть общих знакомых.
Помимо прямого общения с людьми в «Ауре» предусмотрены сообщества по интересам, в которых можно делиться своими впечатлениями, просить совета или комментировать чужие публикации. При размещении своих записей пользователи могут ограничить аудиторию по полу, возрасту и местонахождению. Сам редактор публикаций предельно прост и аскетичен — можно добавить только одно фото, текст объёмом до 2 200 знаков и выбрать цвет фона.
В отличие от других социальных сетей, публикации в «Ауре» отображаются не в виде бесконечной прокручиваемой ленты, а в форме пролистываемых влево-вправо карточек с фото, текстом и комментариями.
Не менее любопытной в мобильной социальной сети «Яндекса» является система оценки пользовательских публикаций. Так, чтобы поставить понравившемуся посту «лайк», карточку с записью нужно смахнуть с экрана смартфона или планшетного компьютера в правую сторону. Если же пост нейтральный либо не представляет интереса — просто пролистываем его влево, и в дальнейшем сервис будет предлагать меньше подобных материалов. В компании заверяют, что публикации, которые понравились многим, будут быстро набирать популярность, так что люди увидят их в первую очередь.
Наконец, ещё одной особенностью «Ауры» являются жёсткие требования к размещаемому контенту. Звучит странно, но это действительно так: в социальной сети «Яндекса» существуют строгая цензура и внушительный свод правил, запрещающих публикацию ненормативной лексики, шокирующих фотографий, оскорблений и ряда других материалов вплоть до заимствованного и содержащего в себе объекты авторских прав третьих лиц контента. Более того, правила площадки предписывают использование в пользовательском профиле только реальных фотографий участников соцсети — все изображения проходят модерацию на предмет соответствия установленным требованиям. Нарушение перечисленных требований может привести к удалению записей, блокировке аккаунта и другим ограничениям. Пожалуй, это самый спорный момент в новоявленном проекте «Яндекса».
Как бы то ни было, первые впечатления от сервиса довольно неоднозначные. С одной стороны, «Аура» привлекает идеями персонификации контента под конкретного пользователя с конкретными интересами и отказа от традиционной модели современных соцсетей, завязанной на кропотливом подборе френдленты и чтении публикаций узкого круга друзей. С другой — отталкивает «драконовскими мерами» в отношении размещаемого контента и откровенно сырой, даже на этапе бета-тестирования, реализацией. Сервис заметно притормаживает даже на мощном смартфоне, иногда дублирует записи, «подвисает» при пролистывании карточек и раздражает огромными плитками пользовательского интерфейса, начисто лишённого каких-либо настроек. Немало нареканий в адрес искусственного интеллекта «Ауры», алгоритмы которого почему-то склонны раз за разом транслировать в ленте просмотренные посты. Замечаний хватает, и нет ничего удивительного в том, что в «Яндексе» предпочитают умалчивать о сроках публичного запуска социальной сети.
Удастся ли «Яндексу» в третий раз штурмовать рынок соцсетей? Цензура, нацеленность исключительно на мобильных пользователей, отсутствие отдельного программного клиента и жёсткая привязка к сервисам «Яндекса» — все эти вещи играют не в пользу «Ауры». В описании проекта сказано, что он предназначен для общения «людей с похожими увлечениями и взглядами на жизнь». И это действительно так. Только вот найдутся ли у этих увлечённых людей мотивы регистрироваться и вести дискуссии на площадке с ограниченной свободой самовыражения, суровыми правилами игры и высокой вероятностью лишиться аккаунта за малейшее отступление от инструкций — это большой вопрос.
Аудитория соцсетей по своей природе инертна, и с ходу перетащить её на другой сервис не представляется возможным. Для свершения революции в этой сфере и переманивания пользователей на свою сторону недостаточного одних лишь громких фраз про "умные" алгоритмы, искусственный интеллект, машинное обучение и перекроенного на иной лад интерфейса программного решения. Необходим новый формат коммуникаций и совершенно иные подходы к сложившимся стандартам общения в Интернете, а этого новый сервис «Яндекса» на данный момент, увы, предложить не может. И по этой причине есть все основания полагать, что в перспективе, когда схлынет волна интереса к «Ауре», она станет сугубо нишевым социальным сервисом. Таким, как в своё время стал так и не оправдавший надежд разработчиков Google+. |
984,376 | Обзор блока питания QDION QD280A SFX 80PLUS: компактный бюджетник | Рассматриваемый нами сегодня блок питания претендует на то, чтобы стать достойным вариантом для компактных систем, не замахивающихся на высокую производительность (по крайней мере, в плане графики), зато относительно доступных по цене. Сможет ли новинка QDION (на момент подготовки материала отсутствующая даже на сайте компании в списке продукции, не говоря уже о розничной продаже) оправдать такие ожидания, будет ясно после тестирования.
⇡#
**Упаковка, комплект поставки, внешний вид**
Рассматриваемый блок питания, как и значительная часть продукции QDION в частности и «родительской» марки FSP в целом, поставляется в OEM-варианте, ориентированном на сборщиков готовых систем, — так что в комплекте поставки нет ни кабеля питания, ни инструкции, ни крепежных винтов. Коробки, разумеется, тоже нет. Впрочем, российская розница устроена так, что OEM-продукты довольно часто может купить и конечный пользователь, так что вполне можно рассчитывать встретить этот БП в таком виде в прайс-листах компьютерных магазинов.
Внешность QDION QD280A SFX 80PLUS вполне типична для бюджетных моделей: неокрашенный металл, провода без оплетки, штампованная вентиляционная решетка.
На одной из боковин имеется наклейка с указанием имени производителя и модели блока питания. На дне корпуса размещена наклейка с выходными параметрами и предупреждениями о возможной опасности. Задняя часть блока традиционно закрыта вентиляционной решеткой, на которой размещен только вход для шнура питания — выключатель не предусмотрен.
По напряжению 12 В, на которое приходится львиная доля нагрузки в современных системах, может быть передано до 90 % общей выходной мощности блока питания, что является весьма хорошим показателем, особенно для недорогих устройств.
Допустимая суммарная нагрузка по линиям 3,3 и 5 В составляет 90 Вт, что значительно превышает потребности современных систем по этим напряжениям (особенно при столь скромной выходной мощности).
Источник дежурного питания поддерживает нагрузку до 3 А — тоже весьма солидное значение для блока питания столь скромной мощности.
|
Производитель
|
QDION
|
Модель
|
QD280A SFX 80PLUS
|
Подключение кабелей
|Несъемные кабели
|
Максимальная мощность нагрузки, Вт
|280
|
Сертификация 80 PLUS
|Нет
|
Версия ATX
|ATX12V 2.3
|
Параметры электросети
|115-240 В, 4 А, 47-63 Гц
|
КПД
|>80 %
|
PFC
|Активный
|
Защита нагрузки
|OVP (защита от превышения напряжения)
|OPP (защита от превышения мощности)
|SCP (защита от короткого замыкания)
|OCP (защита от превышения силы тока)
|SIP (защита от скачков напряжения и тока)
|OTP (защита от превышения температуры)
|
Габариты, мм
|125 × 63,5 × 100
|
Масса, кг
|НД
|
Наработка на отказ (MTBF), ч
|НД
|
Гарантийный срок
|18 месяцев с даты производства
|
Ориентировочная стоимость
|2500
Отметим один нюанс: в таблице спецификаций на наклейке указан широкий диапазон входных напряжений 115-240 В, тогда как у входа шнура питания размещена табличка «AC 230V». Другой нюанс: несмотря на "80PLUS" в названии блока, ни по какому из стандартов 80 PLUS он не сертифицирован.
Модель пока не появилась в продаже, но, насколько нам известно, ее розничная стоимость должна составить 2500 рублей.
Набор разъемов питания:
В целом кабельную систему можно охарактеризовать как вполне соответствующую мощности и позиционированию блока питания. При доступной мощности 250 Вт по линии 12 В вряд ли имело бы смысл добавлять разъем дополнительного питания видеокарт PCI-E, а в остальном кабельная система вполне соответствует требованиям для установки в компактный компьютер с интегрированной (или не требующей дополнительного питания дискретной) графикой.
Длину кабелей с учетом ориентированности модели на применение в малоразмерных корпусах можно назвать достаточной.
Сечение проводов на основном шлейфе питания с 20+4-контактным разъемом и на 4-контактном шлейфе дополнительного питания CPU составляет вполне достаточные 18 AWG.
На проводах в шлейфах с разъемами питания Molex и SATA производитель немного сэкономил: они имеют сечение 20 AWG. Впрочем, с учетом скромного числа разъемов и невысокого энергопотребления устройств, для питания которых предназначены эти кабели, вряд ли уменьшенное сечение проводов вызовет какие-либо проблемы.
⇡#
**Конструкция, внутреннее устройство**
Внутренние компоненты охлаждаются вентилятором RDH8015S типоразмера 80 × 80 × 15 мм производства HENGYANG Ruilian Science.
Внутреннее устройство блока питания демонстрирует не самую продвинутую схемотехнику с групповой стабилизацией напряжений, о которой явно говорят два дросселя в районе выходных цепей.
Тем не менее в наличии есть активная коррекция фактора мощности (на что явно указывает еще один дроссель возле крупной «банки» входного конденсатора), наличием которой могут похвастаться не все бюджетные решения.
Входной фильтр реализован в достаточном объеме, хотя можно найти незадействованные позиции для конденсаторов CY. В наличии два конденсатора CX и четыре CY (половина из них распаяна на входе шнура питания), целых четыре синфазных дросселя и варистор для защиты от кратковременных скачков напряжения.
Из управляющих микросхем удалось обнаружить супервизор Weltrend WT751002S на дочерней плате, размещенной возле передней стенки БП...
...и контроллер дежурного питания (микросхему DM311) возле дросселя A-PFC на основной плате.
Конденсаторы на входе и на выходе представлены продукцией не слишком именитого производителя Asia’X — лишь в цепи дежурного питания нашелся одиночный представитель Nippon Chemi-Con.
В целом, хотя схемотехника блока не самая современная, качество сборки и пайки не вызывает вопросов.
Методика тестирования, принятая в 3DNews, описана в отдельной статье, которая рекомендуется к прочтению для понимания устройства компьютерных блоков питания и их важнейших характеристик. Обращайтесь к ней, чтобы узнать, зачем нужен и как работает тот или иной компонент, упомянутый в обзоре, и как интерпретировать результаты тестирования.
Используемый нами ваттметр несколько занижает потребление «из розетки» при средних и высоких нагрузках, и потому показатели КПД слегка завышены относительно реальности (хотя в силу невысокой выходной мощности тестируемого сегодня блока это отличие не столь велико, как у более мощных моделей, которые мы обычно испытываем).
В целом полученные нами результаты говорят о том, что QDION QD280A SFX 80PLUS обеспечивает эффективность выше 80% при нагрузках выше 20% от номинальной мощности, что вполне согласуется с заявлениями производителя, вынесенными в имя модели.
Значения оборотов вентилятора на графике могут напугать неподготовленного читателя, но не стоит забывать о том, что в тестируемой сегодня модели используется низкопрофильный вентилятор диаметром всего 80 мм. Соответственно, стартовые 1600 об/мин скорости крыльчатки проявляют себя лишь едва слышимым фоновым шумом — это ни в коем случае не приговор акустическому комфорту, как это было бы при работе 120-140-мм вентилятора на таких оборотах.
Тем не менее с ростом выходной мощности линейно растет и скорость вращения крыльчатки вентилятора, и почти 2500 об/мин на полной мощности слышны вполне отчетливо.
В целом акустический комфорт при работе рассматриваемого БП находится на приемлемом уровне: шум вентилятора невелик при умеренных нагрузках и не слишком докучает на высокой мощности, но при желании расслышать его можно всегда (если, конечно, его не заглушат другие установленные в системном блоке вентиляторы).
Кросс-нагрузочные характеристики блока в целом выглядят достаточно неплохо, несмотря на выход за допустимые 5 % отклонений по напряжению 5 В. Для превышения допустимого уровня отклонений напряжения требуется нагрузка по линиям 3,3 и 5 В на уровне 65-80 В — добиться такого потребления по этим напряжениям в реальной системе трудно даже на втрое более мощном БП, а для 280-ваттной модели и вовсе вряд ли возможно.
На реально же востребованном диапазоне нагрузок отклонения по всем напряжениям укладываются в 3 % от номинала, что можно назвать хорошим показателем для блока питания с групповой стабилизацией напряжений.
Пульсации по напряжению 5 В незначительны (особенно высокочастотные). По линии 12 В размах пульсаций заметно выше и на низких частотах достигает 70 мВт, но даже этот уровень заметно меньше допустимых индустриальным стандартом 120 мВ. Можно констатировать, что блок питания QDION полностью соответствует требованиям по размаху пульсаций напряжения.
В целом блок питания QDION QD280A SFX 80PLUS произвел на нас достаточно благоприятное впечатление. Хорошая стабильность напряжений на реально востребованных нагрузках, приемлемый уровень пульсаций напряжения, не самая громкая (хоть и не совсем бесшумная даже при минимальных нагрузках) работа — чего еще желать от добротной доступной модели?
Рекомендованный ценник в 2500 рублей также выглядит вполне адекватно: немногочисленные доступные в продаже модели с близкими возможностями стоят примерно столько. За ощутимо более эффективные модели форм-фактора SFX мощностью 250-300 Вт с сертификатом 80 PLUS Bronze уже придется отдать 3-4 тыс. рублей — но переплата будет оправдана далеко не для любой конфигурации системы. |
984,382 | Обзор игрового WQHD-монитора Gigabyte AORUS AD27QD: удачный выход | Много лет назад, когда LCD-мониторы находились только на начальном этапе развития, а крупные ИТ-компании занимались всего несколькими направлениями, с которыми их по сей день и ассоциируют, мало кто мог представить, что спустя 10-15 лет все они ринутся в борьбу за право быть лидерами на рынке мониторов, который давно поделён между совсем другими игроками. Безусловно, завоевать первое место в мировых продажах и сместить таких гигантов, как Dell и HP (которые обосновались на пьедестале благодаря корпоративным закупкам), никто из них не планирует, а вот занять большую долю на популярном ныне рынке игровых устройств стремится каждая.
Из тройки А-брендов, оставшихся на плаву и известных всем благодаря своим материнским платам и видеокартам, лишь для ASUS рассматриваемый сегмент рынка не в новинку – она занимается дисплеями уже около 10 лет. Конкурент – компания MSI – пришла на этот рынок всего полтора года назад и успела за это время нарастить продуктовую линейку почти до двух десятков моделей, каждая из которых так или иначе относится к классу игровых. В Gigabyte тоже решили не отставать и добавили в список устройств линейки AORUS свой первый монитор – модель AD27QD, c которой мы вас сегодня и познакомим.
Рассматриваемый дисплей был представлен после выставки CES 2019 и уже появился в розничной продаже по рекомендованной производителем цене в 46 990 рублей. Именно с игровой 27-дюймовой WQHD-модели с IPS-матрицей началась новая ветвь развития бизнеса Gigabyte. Скорее всего, в ближайшие месяцы мы сможем стать свидетелями выхода ещё минимум пары мониторов семейства AORUS.
Модель Gigabyte AORUS AD27QD компания наградила статусом «первого тактического монитора в мире», подразумевая под этим ряд эксклюзивных функций, которые помогут игрокам получить тактическое преимущество перед соперниками в ходе виртуальных сражений. Звучит красиво и заманчиво, однако почти все представленные функции, на самом-то деле, хорошо знакомы по другим моделям мониторов — как представленных совсем недавно, так и находящихся на рынке уже 4-5 лет, правда, без таких красивых описаний и столь большого акцента на особенностях в момент анонса.
Новинке предстоит бороться с уже захватившими умы потребителей моделями Acer и ASUS, часть из которых несколько дороже, но с модулем G-Sync на борту, другие же стоят столько же или меньше и предлагают схожие возможности (если, конечно, не касаться программной стороны вопроса). Пока же нам видится, что с установленной ценой в компании Gigabyte слегка перегнули палку, а слов про «софтовые фишки» значительно больше, чем про куда более важные технические особенности дисплея.
|
Gigabyte AORUS AD27QD
|
Экран
|
Диагональ, дюймы |27
|
Соотношение сторон |16:9
|
Покрытие матрицы |Полуматовое
|
Стандартное разрешение, пикс. |2560 × 1440
|
PPI |110
|
Параметры изображения
|
Тип матрицы |IPS-Type (от Innolux)
|
Тип подсветки |White-LED + KSF Phosphor Layer (?)
|
Макс. яркость, кд/м 2 |350 (400+ в режиме HDR)
|
Контрастность статическая |1000 : 1
|
Количество отображаемых цветов |1,07 млрд
|
Частота вертикальной развёртки, Гц |24-144 + FreeSync Support
|
Время отклика BtW, мс |НД
|
Время отклика GtG, мс |1 (MPRT)
|
Максимальные углы обзора по горизонтали/вертикали, ° |178/178
|
Разъёмы
|
Видеовходы |2 × HDMI 2.0;
1 × DisplayPort 1.2
|
Видеовыходы |1 × DisplayPort 1.2 (MST)
|
Дополнительные порты |1 × Audio-Out (3,5 мм);
1 × Mic-In (3,5 мм);
2 × USB 3.0
|
Встроенные колонки: число × мощность, Вт |Нет
|
Физические параметры
|
Регулировка положения экрана |Угол наклона, поворот, изменение высоты, переворот (Pivot)
|
VESA-крепление: размеры (мм) |Есть (100 × 100 мм)
|
Крепление для замка Kensington |Да
|
Блок питания |Встроенный
|
Макс. потребляемая мощность в работе / в режиме ожидания (Вт) |75 / 0,5
|
Габаритные размеры (с подставкой), Д × В × Г, мм |615 × 485-615 × 237
|
Габаритные размеры (без подставки), Д × В × Г, мм |615 × 371 × 60
|
Масса нетто (с подставкой), кг |8,0
|
Масса нетто (без подставки), кг |НД
|
Ориентировочная цена |46 000-50 000 рублей
По нашим данным, модель AORUS AD27QD построена на
**AAS-панели** (относится к IPS-type) производства **Chimei Innolux**, модели **M270KCJ-K7B**. Это 10-битное решение с применением FRC-метода (дизеринг) для увеличения количества воспроизводимых полутонов до 1,07 миллиарда. Используется Flicker-Free (без мерцания) W-LED-подсветка со специальным светорассеивающим слоем (KSF) для увеличения цветового охвата до уровня ~95 % DCI-P3 (около 130 % объёма цветовых данных стандарта sRGB). Эта особенность позволила производителю заявить соответствие стандарту HDR400, даже несмотря на то, что в технических характеристиках прописана максимальная яркость в 350 кандел (в действительности монитор может показывать картинку со светимостью белого поля на треть выше).
Размер панели составляет 27 дюймов, рабочее разрешение 2560 × 1440 пикселей (стандарт WQHD), соотношение сторон 16:9. Итоговая плотность пикселей — 110 ppi, знакомая цифра, обеспечивающая достаточную чёткость изображения и не требующая включать масштабирование в Windows.
Цифры контрастности и углов обзора – обычные для IPS-монитора игрового сегмента. Придраться можно лишь к времени отклика в 1 мс, но тут стоит учитывать, что цифра получена по методике MPRT (Motion Picture Response Time), далёкой от известной GtG (Gray to Gray) и используемой производителями скорее в качестве некоторого индекса скорости, полученного в ходе тестирования в режиме со «вставкой чёрного кадра».
Собственное название этому режиму в Gigabyte дали очень странное и полностью не соответствующее действительности –
**AIM Stabilizer**. По сути же это аналог режимов ULMB/ELMB/VRB у других игровых моделей. Производитель приводит пример с дрожащим при стрельбе прицелом, из-за которого картинка смазывается, а использование функции якобы должно с этим бороться. В действительности работает это не так, да и рассчитывать на картинку без артефактов, как оказалось, не приходится.
Следующая функция –
**Dashboard** – позволяет выводить техническую информацию (напряжение, температуру и частоты CPU/GPU, скорости вращения вентиляторов и тому подобное) на экран в режиме реального времени. Впрочем, мы уверены, что для этого вовсе не обязательно приобретать AD27QD, поскольку давно существуют хорошо знакомые программные продукты с теми же (и даже большими) возможностями. **Blue Light Reducer** (снижение синей составляющей спектра), **PbP/PiP **(картинка в картинке и картинка к картинке), **USB Charger** (возможность зарядки устройств по USB) и **Black Equalizer** (настройка различимости теней) – набор функций, каждой из которых посвящён целый абзац текста, однако ничего нового мы здесь тоже не увидели. Идентичные возможности есть и у большинства конкурентов.
Функции
**GameAssist** и **Sidekick** могли бы стать эксклюзивом, но для этого монитору Gigabyte AORUS AD27QD следовало бы появиться на рынке пятью годами раньше. Сейчас же удивить возможностью вывода на экран наэкранного прицела, таймера, счётчика и различных сеток просто невозможно. Не получится это сделать и с помощью дополнительной утилиты для настройки монитора с использованием мышки и клавиатуры – похожее ПО предлагают пускай и не все, но многие производители мониторов, причём далеко не первый год.
Из настоящего ноу-хау инженеры Gigabyte смогли представить только систему активного шумоподавления
**ANC**, официально доступную, правда, исключительно при использовании гарнитуры AORUS. C другой стороны, если вы являетесь владельцем действительно качественной гарнитуры любого другого производителя, то можете быть уверены, что она уже обладает хорошим шумоподавлением и ничего дополнительного ей не требуется.
Дополнительно стоит отметить использование
**RGB-подсветки внешнего пространства**, которой дали красивое название **Fusion 2.0**. Для её настройки выделено специальное приложение с соответствующим названием, однако его работоспособность пока ещё оставляет желать лучшего. Кроме того, в который раз отметим тот факт, что все подобные системы подсветки красиво смотрятся ровно до тех пор, пока задняя часть монитора не будет развёрнута к стене — а именно так чаще всего и бывает. После этого перед вами предстанет вполне обычный дисплей, без каких-либо визуальных изысков.
В списке доступных интерфейсов для подключения у AORUS AD27QD значатся два HDMI версии 2.0 и один DP 1.2. Для подключения наушников и микрофона присутствуют 3,5-мм аудиопорты, а для работы с периферией представлены два USB 3.0 с возможностью быстрой зарядки. Встроенной акустической системы в новинке нет.
Монитор AORUS AD27QD поставляется в достаточно крупной и увесистой коробке с качественной полиграфией и стильным дизайном. Представлены две фотографии модели, а также полный список особенностей в виде небольших пиктограмм.
Для удобства транспортировки коробка снабжена пластиковой ручкой.
Общий список особенностей модели насчитывает аж 18 пунктов, а по одной из информационных наклеек можно узнать номер партии, серийный номер, полное название монитора, его массу и страну производства (Китай).
Комплект поставки дисплея включает в себя всё самое необходимое:
В случае с героем обзора пользователь может использовать любой из доступных интерфейсов, каждый из которых максимально раскроет возможности модели. Однако если вы хотите оградить себя от возможных проблем и необходимости проведения дополнительных действий по настройке, то советуем воспользоваться DisplayPort-подключением.
Во внешнем виде AD27QD просматриваются черты многих современных решений из самых разных сегментов. Что-то дизайнеры Gigabyte переняли у игровых мониторов ASUS или Acer и даже позаимствовали идеи у MSI, чьи продукты появились на рынке относительно недавно.
Впрочем, результат оказался добротным, запоминающимся и, что важно (так считают производители) для игровой модели, – ярким.
Используемая матрица упакована в современный «безрамочный» корпус с минимальными внутренними рамками с трёх сторон. Снизу же нас встречает широкая пластиковая накладка с логотипом AORUS.
Центральная колонна изначально прикреплена к корпусу, а для её демонтажа необходимо не просто зажать один пластиковый фиксатор-кнопку, как это делается у других мониторов, а свести друг к другу две направляющие, после чего перед пользователем предстанет стандартная VESA-совместимая площадка стандарта 100 × 100 мм.
В качестве подставки дизайнеры компании выбрали очень эффектное решение – под стать сегменту, в котором представлен монитор, однако назвать её удобной мы не можем. Во-первых, она достаточно глубокая, а во-вторых, её ширина для относительно небольшой по современным меркам матрицы с диагональю 27 дюймов довольно велика. С другой стороны, подобная оценка исключительно субъективна. Отношение к используемой подставке у конечного потребителя будет складываться из того, сколько места у него доступно на столе и насколько далеко от себя он готов расположить монитор. Если звезды сойдутся, то никаких проблем не возникнет.
Что касается других важных аспектов подставки, то здесь всё в полном порядке: стильно, качество исполнения высокое, устойчивость монитора отличная. Система прокладки кабелей реализована за счёт фигурного выреза в центральной колонне, а для удобства переноски в её верхней части сделана ручка.
Эргономика подставки удовлетворит запросы всех без исключения потребителей: доступно изменение наклона (от -5 до +21 градуса) и высоты (130 мм), а также поворот корпуса вправо/влево (на 20 градусов).
Есть возможность переворота в портретный режим (Pivot), из-за которой, к нашему удивлению, центровка корпуса почти не пострадала.
Все крепёжные элементы монитора, в том числе внутренности подставки и основания, выполнены из металла. Для надёжного сцепления с рабочей поверхностью используются четыре резиновые ножки разной формы — им хорошо удаётся удерживать монитор в одном положении, в том числе благодаря достаточно большому весу устройства.
RGB-подсветка внешнего пространства RGB Fusion 2.0 поделена на несколько локальных зон.
Цветовой спектр подсветки максимально широк. Через меню монитора можно выбрать один из трёх режимов работы или полностью её отключить. Тонкую же настройку и синхронизацию с другими продуктами можно выполнить благодаря отдельному приложению Gigabyte.
Как показывает практика, спрос рождает предложение и за подобные системы подсветки люди готовы переплачивать даже в том случае, если после установки дисплея на рабочий стол вся «новогодняя ёлка» будет видна исключительно стене или проходящим по офису сотрудникам.
В продолжение темы технических особенностей стоит отметить, что герой обзора оснащён IPS-type-матрицей с полуматовой рабочей поверхностью, которая должна бороться не только с бликами на экране, но и с раздражающим кристаллическим эффектом. Справляется она с этой задачей достойно.
По наклейке на корпусе устройства можно сверить все номера (серийный, номер партии и так далее) и наконец то узнать примерную дату производства. Попавший к нам экземпляр был выпущен в декабре 2018 года и, вполне вероятно, сделан силами непосредственно самой Gigabyte.
Все интерфейсы для подключения находятся в задней части корпуса, на одной колодке, и направлены вниз. Из-за возможности переворота корпуса в портретный режим проблем с подключением кабелей не возникает.
По специальным прорезям в задней части корпуса можно было бы предположить, что в мониторе предусмотрена встроенная акустическая система, однако инженеры и маркетологи компании решили обойтись без неё. Как считают многие производители, настоящие геймеры используют гарнитуры, поэтому инженеры фокусируются на размещении аудиоинтерфейсов и удобстве подключения к ним.
По внешнему виду и качеству используемых материалов монитор воспринимается как дорогое устройство. Обработка элементов у AD27QD выполнена на высшем уровне, зазоры равномерны по всей длине стыков. Пластик не чёрный, а тёмно-серый, практичность многих элементов высокая, но это точно не касается полупрозрачных пластиковых вставок в местах присутствия RGB Fusion-подсветки.
Монитор не скрипит и не хрустит при скручивании и изменении положения. К покраске тоже не придраться. В плане качества первый монитор Gigabyte явно не вышел комом, и в будущем можно надеяться на то, что все последующие модели будут выглядеть и ощущаться не хуже.
Основа системы управления монитором — пятипозиционный джойстик, расположенный посередине нижней грани корпуса. Чуть выше, на передней рамке, находится индикатор питания с белым свечением, которое при желании можно либо отключить, либо сделать в два раза менее ярким.
Скорость работы меню высокая. Система моментально откликается на действия пользователя — раздражающих задержек мы не заметили. А благодаря наэкранным подсказкам управлять монитором легко и просто как днём, так и ночью, в отсутствие внешнего освещения.
Среди опций с быстрым доступом у героя обзора по умолчанию установлены следующие: выбор источника сигнала, эквалайзер чёрного, переход к настройкам GameAssist и Dashboard. По желанию функции всех четырёх положений джойстика могут быть изменены – выбор доступных опций достаточно широк.
Внешний вид OSD-меню – дизайнерская смесь из того, что мы с вами могли наблюдать в мониторах от Samsung и BenQ, но выполненная в иной расцветке, без особого упора на какие-то детали. Всё просто и лаконично. Перед нами верхний блок с шестью пунктами, которые производитель посчитал главными, и шесть разделов, настройки которых разложили на три дополнительные секции.
Первый раздел, Gaming, предоставляет доступ к так называемым игровым параметрам, среди которых AIM Stabilizer, Black Equalizer, Super Resolution, Low Blue Light, Display Mode (настройки встроенного скалера), настройки разгона матрицы Overdrive и возможность активации AMD FreeSync.
Регулировки яркости, контрастности, гаммы, резкости, цветовой температуры и цветовой насыщенности выделены в раздел Picture. Здесь же можно выбрать один из предустановленных режимов изображения.
В третьем разделе можно обнаружить возможность выбора источника изображения, изменить тональный диапазон при использовании HDMI-интерфейса и включить Overscan.
Широкие возможности для настройки функций PiP и PbP представлены в следующем разделе с соответствующим названием.
В разделе System доступны настройки RGB-подсветки (три режима работы), выбор источника аудиосигнала и функций для быстрого доступа, изменение внешнего вида и языка локализации меню.
В дополнительных настройках можно отключить уведомления о рабочем разрешении, изменить яркость индикатора питания и версию DP, активировать автоматическое выключение и автоматический же переход к подключённому источнику сигнала.
Несколько более широкий список возможностей в более наглядном виде представлен через приложение OSD Sidekick, способное заменить поход в стандартное меню монитора AD27QD. Многим потребителям такой способ управления дисплеем покажется более удобным.
Говоря про другую функцию монитора, Dashboard, следует отметить, что для её беспроблемной работы, как оказалось, необходимо установить два приложения с сайта производителя, которые, по нашему мнению, не имеют никакого отношения к данной технологии.
После оценки возможностей предложенного Gigabyte решения и количества необходимых действий для активации рассматриваемой функции становится очевидно, что добиться того же результата и вывести рабочие параметры «железа» на экран можно более простым путём — установкой многим знакомых приложений, не требующих дополнительной рекламы и работающих без каких-либо проблем на любом мониторе.
Монитор AORUS AD27QD был протестирован по стандартной методике при помощи колориметра X-Rite i1 Display Pro в сочетании с референсным спектрофотометром X-Rite i1 Pro, программного комплекса Argyll CMS c графическим интерфейсом dispcalGUI и программой HCFR Colormeter. Все операции осуществлялись в Windows 10, во время тестирования частота обновления экрана составляла 144 Гц.
В соответствии с методикой мы измерим следующие параметры монитора:
Все описанные выше измерения проводились до и после калибровки. Во время тестов мы измеряем основные профили монитора: выставленный по умолчанию, sRGB (если доступен) и Adobe RGB (если доступен). Калибровка проводится в профиле, выставленном по умолчанию, за исключением особых случаев, о которых будет сказано дополнительно. Для мониторов с расширенным цветовым охватом мы выбираем режим аппаратной эмуляции sRGB, если он доступен. Перед началом всех тестов монитор прогревается в течение 3-4 часов, а все его настройки сбрасываются до заводских.
Также мы продолжим нашу старую практику публикации профилей калибровки для протестированных нами мониторов в конце статьи. При этом тестовая лаборатория 3DNews предупреждает, что такой профиль не сможет на 100% исправить недостатки конкретно вашего монитора. Дело в том, что все мониторы (даже в рамках одной модели) обязательно будут отличаться друг от друга небольшими погрешностями цветопередачи. Изготовить две одинаковые матрицы невозможно физически, поэтому для любой серьёзной калибровки монитора необходим колориметр или спектрофотометр. Но и «универсальный» профиль, созданный для конкретного экземпляра, в целом может поправить ситуацию и у других устройств той же модели, особенно в случае дешёвых дисплеев с ярко выраженными дефектами цветопередачи.
В мониторе AORUS AD27QD производитель предлагает семь предустановленных режимов и три дополнительных (Custom), для полностью ручной настройки. При тестировании мы использовали интерфейс DisplayPort как наиболее беспроблемный среди доступных.
По умолчанию настройки основных параметров выглядят следующим образом:
В ходе ручной настройки (100 кд/м
2 и 6500 К) параметры приняли следующий вид:
Для доступа к полному перечню необходимых параметров был выбран пользовательский режим. После перехода в него значительных изменений картинки не произошло, а для получения необходимых значений потребовалась регулировка только двух параметров: яркости и цветовой температуры (RGB Gain). Цветовой охват установился на нативном для используемой матрицы уровне – DCI-P3. Степень разгона Overdrive не менялась, поскольку оптимальное значение было выбрано производителем по умолчанию.
⇡#Яркость белого
**, **яркость чёрного **, **коэффициент контрастности
Проверка осуществлялась в режиме «Стандарт» при настройках по умолчанию.
|
Яркость в меню (%) |
Яркость белого (кд/м 2) |
Яркость чёрного (кд/м 2) |
Статическая контрастность (x:1)
|
100 |
472 |
0,408 |
1157
|
90 |
437 |
0,379 |
1153
|
80 |
400 |
0,348 |
1149
|
70 |
362 |
0,314 |
1153
|
60 |
323 |
0,281 |
1149
|
50 |
286 |
0,248 |
1153
|
40 |
245 |
0,212 |
1156
|
30 |
201 |
0,175 |
1149
|
20 |
157 |
0,136 |
1154
|
10 |
111 |
0,096 |
1156
|
0 |
64 |
0,056 |
1143
Максимальная яркость оказалась на уровне 472 кд/м
2, а нижнее значение составило 64 кд/м 2. Коэффициент контрастности – 1155:1 в среднем, что на 15 % выше, чем заявлено в технических характеристиках.
Полученный диапазон изменения яркости подсветки оказался идеальным со всех точек зрения. По верхней границе монитор значительно превышает указанное производителем значение (в том числе при работе HDR), а нижняя граница позволит серьёзно снизить нагрузку на глаза в условиях слабого внешнего освещения или его полного отсутствия. Если же вам захочется опустить яркость ещё ниже, то у AD27QD для этого есть запас по коэффициенту контрастности. Снизьте параметр Contrast на 10-15 % — хуже не станет, а яркость опустится до 40 нит и ниже.
⇡#Результаты при стандартных настройках
Монитор обладает матрицей с расширенным до уровня DCI-P3 цветовым охватом, что делает его интересным вариантом для использования в мультимедиа (игры, фильмы), но создаёт проблемы для людей, работающих с фото, видео и графикой и при этом не разбирающихся в вопросах цветовоспроизведения. Если же вы знакомы с управлением цветностью, то никаких проблем возникнуть не должно.
При настройках по умолчанию возможности матрицы в AQ27QD превосходят стандарт sRGB практически на всех участках CIE-диаграммы — изображение на экране насыщенное и зачастую не совсем реалистичное, поскольку до сих пор большая часть создаваемого контента рассчитана на sRGB-мониторы.
Монитор Gigabyte AORUS AD27QD порадовал нас достаточно точной настройкой точки белого и высокой стабильностью ЦТ оттенков серого.
Расхождение каналов гамма-кривых фактически отсутствует, а линии лежат близко к референсу, но почему-то без дополнительного подъёма в глубоких тенях для их лучшей различимости.
Если оценивать точность настройки монитора в отношении DCI-P3 (а не стандарта sRGB, как мы это делаем в большинстве случаев), модель AD27QD показала себя очень хорошо. Для первого монитора в продуктовой линейке результат и вовсе превосходный. Отклонения невелики, но можно сделать ещё лучше. Этим мы займёмся позже, а пока оценим влияние «вставки чёрного кадра» на изображение.
⇡#Результаты в режиме AIM Stabilizer
При активации AIM Stabilizer электроника монитора блокирует яркость на уровне 160 кандел без возможности дальнейшей регулировки. Коэффициент контрастности снижается до 610:1, но сильно на визуальных ощущениях это не сказывается и сказаться не может.
Цветовой охват практически не изменяется. Перед вами всё те же 91,8 % покрытия DCI-P3, что и при стандартных установках.
Точка белого близка к заводским установкам, а стабильность серого немного снижается.
Гамма-кривые начинают возвышаться над референсной линией, снижается общая контрастность изображения, однако никакого отношения к снижению глубины чёрного и коэффициенту контрастности это не имеет.
Уровень отклонений при проверке в среде Agryll CMS увеличивается, но сказать, что вы заметите сильные изменения картинки на экране при активации AIM Stabilizer, мы не можем.
В разы сильнее на неё влияет режим с названием AORUS. Изображение приобретает, мягко говоря, странный вид: бледно фиолетово-розовое, с плохими шрифтами с цветными контурами (излишне увеличена резкость). Возможно, в природе и существуют любители именно такой картинки, но мы их не видели и не знаем.
Кроме того, в этом режиме заметно сужается цветовой охват, многие цвета оказываются на своих местах.
Точка белого уплывает далеко от нормы — отклонение 13 единиц DeltaE, да и стабильность оттенков серого значительно снижается.
Говорить про точность установки гамма-кривых не приходится вовсе. Они улетели в космос, причем заметна сильная разбалансировка цветовых каналов. Картинка на экране бледная – не контрастная.
В этой ситуации неудивительно, что отклонения цветопередачи превышают все допустимые нормы — и это лишь дополнительно подтверждает всё вышесказанное. Просто забудьте про режим AORUS.
Если в мониторе установлена матрица с нестандартным (расширенным) цветовым охватом, то всегда есть надежда, что производитель догадается установить режим эмуляции пространства sRGB. И действительно, такие режимы есть у большинства моделей, но вот реальная эмуляция производится в единичных случаях.
К сожалению, Gigabyte AORUS AD27QD не входит в список этих случаев. Цветовой охват в изучаемом режиме оказывается даже немногим больше, чем при заводских установках. Яркость блокируется на уровне 25 %, что соответствует 167 канделам на квадратный метр.
Точка белого настроена близко к уровню 6500 К, но полученные отклонения в 3,7 единицы DeltaE говорят о преобладании слабого паразитного оттенка. Вместе с тем стабильность ЦТ оттенков серого просто идеальная.
С гамма-кривыми в режиме sRGB ситуация позитивная. Да, они не выставлены идеально, наблюдается некоторый переизбыток контрастности, но в целом пресет может быть использован для продолжительной работы, когда требуется высокая точность.
Единственное но — при сравнении показателей монитора со стандартом sRGB о высоких результатах речи быть не может. Цветовой охват значительно превышает данный стандарт, а поэтому высокие отклонения очень даже ожидаемы.
Для полноценной настройки монитора оказалось достаточно снизить яркость подсветки и изменить степень усиления RGB для достижения необходимой цветовой температуры. Также можно изменить режим Gamma, переключив его в положение Off, и получить ещё более точно выставленные гамма-кривые.
Внесённые изменения положительно повлияли на возможности монитора. Цветовое соответствие слегка увеличилось, но увидеть это без приборов – невыполнимая задача.
Точка белого пришла в норму, стабильность серого сохранилась на высоком уровне, без резких всплесков.
Гамма-кривые изменились не сильно, но увеличилась различимость крайних тёмных оттенков.
Благодаря созданному профилю система получила нужные ей данные о возможностях дисплея, что позволило в программах с поддержкой CMS производить необходимые коррекции. Отклонения DeltaE снизились до уровня 0,27 в среднем и 0,76 в максимуме. Лучше просто некуда, но от расширенного цветового охвата в приложениях без поддержки системы управления цветом вам никуда не деться. Это стоит помнить!
Равномерность подсветки дисплея проверялась после снижения яркости в центральной точке монитора до уровня 100 кд/м
2 и установки цветовой температуры в ~6500 кельвин.
Картинка выше демонстрирует фотографию белого поля при определённой экспопоправке в ходе съёмки (в темноте) и дальнейшей программной обработки для более наглядного представления равномерности подсветки.
На белом проблемы равномерности подсветки видны не очень сильно, но при взгляде на серое поле они становятся очевидными.
Среднее отклонение от центральной точки составило 13,1 %, а максимальное 27,5 %. Результат низкий — нашему экземпляру однозначно не повезло. Особенно сильно задета верхняя часть экрана, которая оказалась одной из проблемных зон новых матриц Chimei Innolux в целом.
С равномерностью цветовой температуры дела тоже обстоят не очень. Разброс значений выше 850 кельвин, среднее отклонение от центральной точки – 2,3 %, максимальное – 11,5 %. Результат низкий, и ничего с этим не сделать. Проблемная зона всё та же, но если бы не верхний левый угол, то положительных впечатлений было бы больше.
Диаграмма поверхности с отклонениями цветовой температуры, выраженными в единицах DeltaE, подтверждает вышесказанное. Максимальное отклонение дошло до уровня в 10 единиц, а среднее — до 3,1 единицы DeltaE, что выше допустимых значений, при которых равномерность можно было бы отнести к средней.
Теперь посмотрим на равномерность подсветки и различные цветовые эффекты в случае с чёрным полем. Сделаем мы это по двум фотографиям, снятым на разном удалении от экрана (~70 и 150 см).
В плане углового Glow-эффекта изучаемый монитор показал вполне обычный для IPS-матрицы результат – четыре «засвеченных» угла со слабыми паразитными оттенками. Размер «засветок» зависит от расстояния до экрана – чем ближе, тем они больше.
При отдалении от экрана Glow полностью исчезает и становится ясно, что с реальной равномерностью чёрного у нашего экземпляра AD27QD тоже не всё в порядке. Вся нижняя левая часть оказалась засвеченной, однако на других экземплярах этого же монитора, с которыми мне довелось встречаться, такой проблемы нет. Поэтому не забывайте проверять равномерность подсветки в момент покупки, а не дома. Только в этом случае у вас будет возможность вернуть экземпляр продавцу и не бегать по сервисным центрам в попытках добиться справедливости. Впрочем, это касается абсолютно всех мониторов — вне зависимости от их цены и класса.
⇡#Визуальная оценка изображения и особенности модели
⇡#Качество градиентов и скорость отклика
Используемая 10-битная (c применением FRC) матрица в AORUS AQ27QD смогла продемонстрировать выдающиеся по равномерности градиенты во всех предустановленных режимах, в том числе и после правок рабочих параметров через OSD-меню в пользовательских режимах.
Хорошая заводская настройка в случае грамотных ручных правок позволяет обойтись без полноценной калибровки с внесением изменений в LUT и сохранить качество градиентов на изначально высоком уровне с максимально правильными цветами и без явного бандинга (резких переходов). Кроме того, при снижении частоты вертикальной развёртки до 120 Гц пользователь может выбрать 10-битное представление цвета в настройках видеокарты. Увидеть большую разницу между 8-битным и 10-битным режимом невозможно, но качество градиентов все же несколько улучшается.
В отношении скоростных характеристик AD27QD можно долго дискутировать про справедливость заявленной 1 мс, полученной в ходе измерений по новой для индустрии методике MPRT, но лучше просто оценить реальные результаты.
Для начала стоит отметить, что частота вертикальной развёртки в 144 Гц – это доступный максимум и одновременно нативная частота панели. Разгон до более высокой частоты не поддерживается, но, если исходить из данных некоторых источников, максимальная частота панели от Chimei Innolux может достигать уровня 165 Гц. Не удивимся, если этой возможностью производители воспользуются в своих будущих моделях.
У монитора есть три режима Overdrive. Выставленное по умолчанию значение (Balance) скорости отклика жидких кристаллов оптимально среди всех доступных. Перевод разгона в положение Picture Quality провоцирует небольшое увеличение шлейфов на движущихся объектах, а режим Speed — добавляет видимые артефакты. При активации режима со «вставкой чёрного кадра» (AIM Stabilizer) пропадает возможность работы AMD FreeSync, объекты делаются чётче, становится возможным прочесть шрифт, но артефакты проявляют себя даже сильнее, чем в режиме Speed. Конечный же выбор всегда остаётся за пользователем.
Общий уровень скорости монитора Gigabyte AORUS AD27QD мы можем оценить очень высоко. По сравнению с первопроходцами класса новые модели демонстрируют меньшие шлейфы и заметность артефактов на всех уровнях заводского разгона. Что же касается сравнения с быстрыми TN+Film-моделями со схожей или более высокой частотой развёртки, то здесь AD27QD, как и все его прямые конкуренты, проигрывает. Стоит ли несущественная для многих разница в реальном использовании (исключение составляют так называемые хардкорные геймеры) тех недостатков, которые вы получите в случае покупки TN-дисплея? Сомневаемся…
Говоря про стабильность максимальной частоты развёртки, можно отметить, что никаких проблем при тестировании монитора мы не выявили. Специальный тест из пакета TestUFO это полностью подтверждает.
По углам обзора рассматриваемый монитор мало чем отличается от других 27-дюймовых WQHD-моделей с IPS-type-панелями, демонстрируя высокий уровень стабильности картинки при рабочих углах просмотра. Как показывает опыт, 27-дюймовый IPS – до сих пор одно из самых универсальных и практичных решений на рынке, даже несмотря на быстрое развитие других форматов и типов панелей.
При незначительных изменениях в горизонтальной плоскости картинка на экране AD27QD совсем не меняется. Если увеличить угол до 30-45 градусов, то изображение становится чуть менее контрастным, немного снижается насыщенность некоторых цветов, слегка высветляются тени — ничего необычного. При изменениях в вертикальной плоскости картинка на экране портится быстрее и сильнее. Особенно сильно меняют свой внешний вид крайние области экрана, в частности — углы.
От Glow-эффекта тестируемый монитор не избавлен, поскольку построен на базе матрицы IPS-типа. Именно Glow вносит основной вклад в претензии, относящиеся к стабильности картинки на экране и комфортности работы в тёмном помещении, особенно при просмотре фильмов и работе в ПО с тёмным интерфейсом. В зависимости от положения пользователя перед экраном с чёрной заливкой паразитный оттенок и степень его проявления сильно варьируются.
Демонстрирует себя Glow-эффект и на цветных изображениях, особенно если картинка выполнена в тёмных оттенках. В этом случае при взгляде со стороны появляется сильный оранжевый паразитный оттенок. При прочих проверках (на других картинках) результат может быть совсем другим.
⇡#Кристаллический эффект
**, **Cross-hatching **, **ШИМ
В мониторе AORUS AD27QD используется матрица с хорошей полуматовой защитной поверхностью.
Картинка на экране приятна для глаз. Кристаллический эффект еле заметен, многие его не увидят вовсе. При изменении угла просмотра его заметность практически не усиливается. От эффекта Cross-Hatching данная модель дисплея полностью избавлена.
К отображению мелких элементов и прорисовке текста различной величины вопросов у нас не возникло. Монитор уверено проходит все тесты и оставляет положительное впечатление от картинки на экране.
По заявлениям производителя, дисплей обладает Flicker-Free-подсветкой, что и было подтверждено в ходе наших тестов. При любом уровне яркости ШИ-модуляция не используется либо её частота составляет несколько килогерц или даже десятки килогерц. За свои глаза пользователи могут быть спокойны. Осталось не забывать о необходимости делать перерывы в работе и не выставлять слишком высокую яркость при низкой или средней внешней освещённости.
При активации режима «вставки чёрного кадра» (AIM Stabilizer) на частоте вертикальной развёртки 144 Гц мы выявили ШИ-модуляцию с соответствующей частотой и высокой скважностью – так и должно быть. Нагрузка на глаза в этом случае, безусловно, возрастает, но и движущиеся объекты на экране становятся четче. Для коротких игровых сессий подобный режим может быть интересен, но для продолжительной работы за монитором его точно следует избегать.
Компании Gigabyte удалось сделать то, что многим производителям не под силу, – выпустить первый продукт в новой для себя нише и не ударить в грязь лицом. Производитель одним из первых воспользовался новой панелью Chimei Innolux, которая должна на равных соперничать с Nano-IPS производства LG Display (впрочем, есть вероятность, что это одна и та же матрица), разработал стильный дизайн, произвёл качественную заводскую настройку и в целом удачно вписался в сегмент 27-дюймовых игровых IPS-моделей с поддержкой AMD FreeSync. Если хочется G-Sync — то вам прямиком к «старичкам», вышедшим пару лет назад и стоящим на 10-15 тысяч рублей больше.
Для привлечения большего внимания к своему первому дисплею Gigabyte сделала большой акцент на титуле «первый тактический монитор» и программных технологиях, которым, собственно, монитор и обязан этим званием. Многие из них не представляют особого интереса и созданы, судя по всему, по принципу «чтобы было». Впрочем, от этого достоинства монитора никуда не исчезают — у вас всегда есть выбор, пользоваться этими программными «фишками» или нет. Также производитель пообещал выпустить новую прошивку для оптимизации работы режима sRGB и улучшения работоспособности игровых функций. Покупателям остаётся ждать и надеяться, что установить прошивку можно будет в домашних условиях — без необходимости посещения сервисных центров.
*С файлового сервера 3* *DNews* *.* *ru* * можно скачать* * цветовой профиль* * для этого монитора, который мы получили после ручной настройки и профилирования.* **Достоинства** **:** **Недостатки:** **Может не устроить** **:** |
984,444 | Gamesblender № 404: Halo на ПК, новый зомби-шутер от авторов Left 4 Dead и «бегство» Phoenix Point | Gamesblender № 404: Halo на ПК, новый зомби-шутер от авторов Left 4 Dead и «бегство» Phoenix Point
С вами GamesBlender, еженедельный видеодайджест новостей игровой индустрии от 3DNews.ru. В сегодняшнем выпуске: Cyberpunk 2077 ближе, чем кажется; Denuvo мешает играть; Control как метроидвания. А также другие новости и события игровой индустрии
При цитировании документа ссылка на сайт с указанием автора обязательна. Полное заимствование документа является нарушением российского и международного законодательства и возможно только с согласия редакции 3DNews. |
984,488 | Обзор смартфона moto g7: прыжок в клетку со львами | Что такое телефон Motorola в 2019 году? Первое, что приходит на ум, – это возвращающаяся на рынок раскладушка RAZR. Попытки сыграть на ностальгии неизбежны, успех переродившейся Nokia подбрасывает дровишек в эту печку. Второе – модульная конструкция, которая ожидаемо «не зашла», но Lenovo, видимо, уже из принципа продолжает гнуть эту линию. Третье – «чистый» Android, который поначалу был серьезным плюсом Motorola, но теперь этот козырь можно обнаружить в рукавах многих игроков. В итоге особенностью смартфонов этой марки можно называть некоторые специальные функции, добавленные в операционку.
Итак, moto g7 – смартфон традиционный, не модульный и не складной. Из упомянутых выше фирменных знаков он может похвастать только лишенным примесей Android с некоторым количеством дополнительных наворотов. Так за счет чего же он планирует врываться на перенасыщенный рынок, тем более в сегменте «до 20 тысяч рублей», где властвуют Xiaomi и Huawei (с отдельными яркими вспышками других брендов вроде ASUS Zenfone Max Pro)?
Дать ответ на этот вопрос с ходу крайне тяжело, каких-то специфических особенностей у moto g7 нет — тем интереснее попытаться выяснить это при подробном знакомстве с гаджетом.
|
moto g7 |
Xiaomi Redmi Note 7 |
ASUS Zenfone Max Pro (M2) |
Nokia 7.1 |
Honor 8X
|
Дисплей |6,2 дюйма, IPS, 2270 × 1080 точек, 403 ppi; емкостный, мультитач
|6,3 дюйма, IPS, 2340 × 1080 точек, 409 ppi; емкостный, мультитач
|6,26 дюйма, IPS, 2280 × 1080 точек, 403 ppi; емкостный, мультитач
|5,84 дюйма, IPS, 2280 × 1080 точек, 432 ppi; емкостный, мультитач
|6,5 дюйма, IPS, 2340 × 1080 точек, 396 ppi, емкостный мультитач
|
Защитное стекло |Corning Gorilla Glass (версия не уточняется)
|Corning Gorilla Glass 5
|Corning Gorilla Glass 6
|Corning Gorilla Glass 3
|Нет информации
|
Процессор |Qualcomm Snapdragon 632: четыре ядра Kryo 250 Gold, частота 1,8 ГГц + четыре ядра Kryo 250 Silver, частота 1,8 Ггц
|Qualcomm Snapdragon 660: восемь ядер Kryo 260, частота 2,2 ГГц
|Qualcomm Snapdragon 660: восемь ядер Kryo 260, частота 2,2 ГГц
|Qualcomm Snapdragon 636: восемь ядер Kryo 260 (8 × 1,8 ГГц)
|HiSilicon Kirin 710: восемь ядер (4 × Cortex A73 2,2 ГГц + 4 × Cortex A53 1,7 ГГц)
|
Графический контроллер |Adreno 506, 650 МГц
|Adreno 512, 850 МГц
|Adreno 512, 850 МГц
|Adreno 509, 720 МГц
|ARM Mali-G51 MP4, 650 МГц
|
Оперативная память |4 Гбайт
|3/4 Гбайт
|4 Гбайт
|3/4 Гбайт
|4/6 Гбайт
|
Флеш-память |64 Гбайт
|32/64/128 Гбайт
|64 Гбайт
|32/64 Гбайт
|64/128 Гбайт
|
Разъемы |USB Type-C, 3,5 мм
|USB Type-C, 3,5 мм
|MicroUSB, 3,5 мм
|USB Type-C, мини-джек 3,5 мм
|MicroUSB, мини-джек 3,5 мм
|
Слот для карты памяти |Есть (отдельный слот для microSD)
|Есть
|Есть (отдельный слот для microSD)
|Есть
|Есть (отдельный слот для microSD)
|
SIM-карты |2 × nano-SIM
|2 × nano-SIM
|2 × nano-SIM
|2 × nano-SIM
|2 × nano-SIM
|
Сотовая связь 2G |GSM/GPRS/EDGE 850/900/1800/1900 МГц
|GSM/GPRS/EDGE 850/900/1800/1900 МГц
|GSM/GPRS/EDGE 850/900/1800/1900 МГц
|GSM/GPRS/EDGE 850/900/1800/1900 МГц
|GSM/GPRS/EDGE 850/900/1800/1900 МГц
|
Сотовая связь 3G |HSDPA 850/900/1900/2100 МГц
|HSDPA 850/900/1900/2100 МГц
|UMTS 850/900/2100 МГц
|WCDMA 850/900/1900/2100
|HSDPA 850/900/1900/2100 МГц
|
Сотовая связь 4G |LTE Cat. 7 (300 Мбит/с), диапазоны 1, 2, 3, 4, 5, 7, 8, 18, 19, 20, 26, 28, 38, 40, 41
|LTE Cat. 12 (600 Мбит/с), диапазоны 1, 2, 3, 4, 5. 7, 8, 20, 28, 38, 40
|LTE Cat. 9 (450 Мбит/с), диапазоны 1, 3, 5, 7, 8, 20, 40
|LTE Cat. 6 (300/50 Мбит/с): диапазоны неизвестны
|LTE Cat. 4 (150 Мбит/c), диапазоны 1, 3, 7, 8, 34, 38, 39, 40, 41
|
Wi-Fi |802.11 a/b/g/n; 2,4/5 ГГц
|802.11 a/b/g/n/ac; 2,4/5 ГГц
|802.11 b/g/n; 2,4 ГГц
|802.11 b/g/n/ac; 2,4/5 ГГц
|802.11a/b/g/n/ac; 2,4/5 ГГц
|
Bluetooth |4.2 (aptX)
|5.0
|5.0
|5.0
|4.2 (aptX)
|
NFC |Есть
|Нет
|Есть
|Есть
|Есть
|
Навигация |GPS, A-GPS, ГЛОНАСС, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo, QZSS
|GPS, A-GPS, ГЛОНАСС
|GPS, A-GPS, ГЛОНАСС, BeiDou
|
Датчики |Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), ИК-датчик
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|
Сканер отпечатков пальцев |Есть
|Есть
|Есть
|Есть
|Есть
|
Основная камера |Двойной модуль: 12 Мп, ƒ/1,8 + 5 Мп, гибридный автофокус, светодиодная вспышка
|Двойной модуль: 48 Мп, ƒ/1,8 + 5 Мп, ƒ/2,2, фазовый автофокус, двойная светодиодная вспышка
|Двойной модуль: 12 Мп, ƒ/1,8 + 5 Мп, фазовый автофокус, светодиодная вспышка
|Двойной модуль: 12 + 5 Мпикс, ƒ/1,8 + ƒ/2,4, автофокус, двойная светодиодная вспышка
|Двойной модуль: 20 ƒ/1,8 + 2 Мп, фазовый автофокус, светодиодная вспышка
|
Фронтальная камера |8 Мп, без автофокуса, без вспышки
|13 Мп, без автофокуса, без вспышки
|13 Мп, ƒ/2,0, без автофокуса, без вспышки
|8 Мп, ƒ/2,0, без автофокуса, со вспышкой
|16 Мп, ƒ/2,0, автофокус, без вспышки
|
Питание |Несъемный аккумулятор: 11,4 Вт·ч (3000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 15,28 Вт·ч (4000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 19 Вт·ч (5000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 11,63 Вт·ч (3060 мА·ч, 3,8 В)
|Несъемный аккумулятор: 14,25 Вт·ч (3750 мА·ч, 3,8 В)
|
Размер |157 × 75,3 × 8 мм
|159,2 × 75,2 × 8,1 мм
|157,9 × 75,5 × 8,5 мм
|149,7 × 71,2 × 7,99 мм
|160,4 × 76,6 × 7,8 мм
|
Масса |172 г
|186 г
|175 г
|160 г
|175 г
|
Защита от воды и пыли |P2i (брызгозащита)
|Нет
|Нет
|Нет
|Нет
|
Операционная система |Android 9.0 Pie
|Android 9.0 Pie, оболочка MIUI
|Android 8.1 Oreo
|Android 8.1.0 Oreo
|Android 8.1 Oreo, оболочка EMUI
|
Актуальная цена |19 990 рублей
|13 990 рублей за версию 3/32 Гбайт, 16 890 рублей за версию 4/64 Гбайт, 20 000 рублей за версию 6/64 Гбайт
|16 970 рублей за версию 4/64 Гбайт, 19 990 рублей за версию 4/128 Гбайт
|16 880 рублей за версию 3/32 Гбайт
|17 990 рублей за версию 4/64 Гбайт, 19 580 рублей за версию 4/128 Гбайт
Существует четыре смартфона, носящих слова «moto» и «g7» в названии. Как это принято у Motorola, помимо титульного гаджета (о котором мы и ведем тут речь), это также версии Play (более компактная, с экраном меньшей диагонали и разрешения, с более простой камерой и меньшим объемом памяти), Power (более толстая, с экраном меньшего разрешения, но той же диагонали, зато с батареей почти в два раза большей емкости; камера опять же попроще) и Plus (с более мощным процессором, улучшенными камерами, стереодинамиками). Более подробно про различия всех версий можно прочитать в нашей новости.
В России в настоящий момент продается только «золотая середина», moto g7 — за 19 990 рублей, ну и обреченная на больший успех версия moto g7 Power — за 17 990 рублей.
⇡#
**Дизайн, эргономичность и программное обеспечение**
Motorola, несмотря на все перипетии, которые связаны с торговой маркой, уже пару раз перепродававшейся и несколько последних лет принадлежащей Lenovo, держит свой собственный стиль в оформлении телефонов. Motorola moto g7, несмотря на почти неизбежный в наше время вырез на экране (в данном случае маленький – «капельку»), заметно выделяется на общем фоне, причем не только вписанным в сканер отпечатков пальцев логотипом.
Для смартфона за 20 тысяч рублей moto g7 выглядит неожиданно породисто – причем так и не объяснишь, чем именно. Все приметы времени на месте. Про вырез уже сказано, вместе с ним в комплекте идет безрамочность, причем в данном случае по-настоящему условная – рамки вокруг дисплея форматом 19:9 очень заметны. Задняя панель выполнена из глянцевого и очень скользкого вследствие этого стекла, изогнутого по краям, за счет чего гаджет кажется более тонким, чем он есть на самом деле. Но и качество исполнения, и характерно вписанный в кольцо модуль двойной камеры выделяют moto g7 на фоне довольно безликих, пусть и очень эффективных по сочетанию цены и характеристик, Redmi, Zenfone и Honor. Впрочем, последние тоже бывают весьма яркими – вспомним хотя бы Honor 8X.
Motorola moto g7 предлагается в двух вариантах расцветки – помимо абсолютно черной, как в нашем случае, существует и белая версия. По своим габаритам это типичный современный смартфон – двуручный (пальцами той же руки, которой держишь аппарат, невозможно дотягиваться до углов экрана; печатать при этом можно без проблем), но спокойно помещающийся в карман. Спасибо «растянутому» дисплею с небольшими рамками.
Корпус с обеих сторон прикрыт закаленным стеклом Gorilla Glass неизвестной версии, но я рекомендую сразу одеть его в комплектный силиконовый чехол – выронить столь скользкий гаджет очень легко.
Впрочем, даже в чехле он норовит уползти с любой мало-мальски покатой поверхности — спасибо тем самым изогнутым краям, создающим иллюзию тонкости. Будьте аккуратнее – Gorilla Glass, конечно, повышает выживаемость дисплея при падениях, но не гарантирует ее. Это не moto Z Force.
По компоновке moto g7 – почти традиционный Android-смартфон. Почти – потому что слот для карты памяти и SIM-карт расположен не на левой, а на верхней грани, а снизу обнаруживается мини-джек. По состоянию на 2019 год это еще не редкость, но все равно – каждый раз приятный сюрприз. Полноценной влагозащиты при этом не заявлено, только брызгозащита — от пары капель смартфон не развалится, можно не переживать, а вот ронять в воду его уже опасно.
Сканер отпечатков пальцев емкостный, расположен на задней панели. Хочется написать «аккурат под указательным пальцем», но это не так, он чуть смещен вниз относительно естественного положения руки — приходится слегка перехватывать смартфон. Зато он на порядочном удалении от блока камеры, промахнуться и попасть пальцем в объектив почти невозможно. Работает сенсор очень быстро и стабильно, претензий никаких. При желании можно продублировать его системой распознавания лица – но за нее отвечает только фронтальная камера, без дополнительных технических средств, так что уровень надежности этого метода невысок. Обмануть смартфон можно простой фотографией, полагаться на такой способ разблокировки не рекомендую.
Как я уже отмечал, гордость Motorola – «чистая» операционная система Android, без каких-либо оболочек. В данном случае это Android 9.0 Pie. Внешне она, тем не менее, слегка отличается – все-таки без фирменных тем, виджетов и разных фишек с управлением не обошлось. Например, можно традиционным образом касаться трех нижних иконок, а можно использовать вместо этого жесты, проводя пальцами по дисплею. Режим «Не беспокоить» включается, если перевернуть смартфон экраном вниз, а яркость экрана не меняется, пока вы смотрите на него.
Есть и другие интересные — или не очень — функции, все их можно включить или настроить в специальном меню. Вполне можно обойтись и без них, но в целом они создают некую приятную добавку к опыту использования аппаратов Motorola. Дополнительного ПО почти не установлено, за исключением пары приложений «Яндекса», причем второй поисковой строки нет — только Google.
В moto g7 установлен вполне обычный ЖК-дисплей – OLED-матрицы по-прежнему остаются привилегией флагманских устройств, если речь не про Samsung, конечно. Характеристики у него самые стандартные для смартфона среднего класса: 6,2 дюйма, разрешение Full HD с поправкой на формат 19:9 (2270 × 1080), плотность пикселей – 403 ppi.
Олеофобное покрытие тут вполне неплохое — можно ставить в пример неожиданно слабому на Xiaomi Mi 9. Само собой, воздушной прослойки между стеклом и матрицей нет, а поляризационное покрытие, наоборот, есть. Углы обзора очень широкие – цвета при сильном отклонении взгляда от перпендикуляра не искажаются, только падает контрастность, и то не слишком сильно.
Сенсорный слой реагирует на 10 одновременных касаний и отличается умеренной чувствительностью – ложных нажатий и «звонков другу» из кармана удается избежать. А вот режима работы в перчатках я не нашел.
Максимальный замеренный уровень яркости – 472 кд/м
2. Не рекордный уровень даже для OLED-дисплея, не говоря уже о жидкокристаллической матрице. Впрочем, на воспроизведение HDR-видео moto g7 и так не претендует, а на солнце считывать информацию с его экрана легко и комфортно даже с такими показателями.
Контрастность – 1224:1, добротный средний уровень для ЖК-дисплея.
В настройках дисплея есть возможность как изменения размера шрифтов или масштаба иконок, так и выбора режима цветопередачи. Без серьезного вмешательства в шкалу RGB — просто выбор из трех предустановок: натуральной, яркой и насыщенной. Разница между ними достаточно условная. Я измерил цветопередачу дисплея moto g7 с установками «натуральные цвета» и «яркие цвета».
По умолчанию для дисплея moto g7 выставлен режим цветопередачи «яркие цвета». В нем ожидаешь увидеть расширенный цветовой охват, повышенную яркость и, как правило, более холодные оттенки. Если замерять цветопередачу сначала именно в этом режиме, то кажется, что это и получаешь. Цветовой охват действительно немного расширен, хотя и далек от DCI-P3, — здесь это скорее слегка «распухший» и смещенный sRGB. Средняя гамма составляет 2,32, цветовая температура колеблется в диапазоне от 7 500 до 9 000 К. Цвета действительно холодные, но не то чтобы слишком, среднее отклонение DeltaE по расширенной палитре Color Checker (оттенки серого + широкий набор цветовых оттенков) приемлемое – 4,98 при норме в 3,00. Смартфоном вполне можно пользоваться и с настройками дисплея по умолчанию – даже с определенным уровнем комфорта. А для просмотра видео с цветами, приближенными к оригиналу, наверное, достаточно переключиться в режим «натуральные цвета», ведь так?
И нет, это совсем не так. Режим «натуральные цвета» не отличается от режима «яркие цвета» или «насыщенные цвета» по цветовому охвату и, как это ни удивительно, предлагает более далекую от эталона цветопередачу. Средняя гамма примерно та же – 2,31, кривая цветовой температуры ведет себя абсолютно так же, но среднее отклонение DeltaE по Color Checker ухудшается – 5,27. Разница невелика, но смысла в переключении между режимами цветопередачи нет никакого. Не сказал бы, что дисплей moto g7 настроен плохо. Скорее подходит слово «странно».
В moto g7 предусмотрены как мини-джек (3,5 мм), так и беспроводная передача звука высокого разрешения (протокол Bluetooth aptX) – со смартфоном можно использовать почти любые наушники без переходников. Качество звучания в наушниках обычное, какими-то выдающимися музыкальными способностями g7 не обладает. То же касается и внешнего динамика – в отличие от старшей, более дорогой и не представленной в России версии g7 Plus, здесь монофонический динамик, расположенный на нижней грани. Он довольно громкий, но без каких-либо изысков по звучанию.
Из неожиданностей отмечу встроенный FM-радиоприемник – радио как таковое еще живо, но в телефонах приемник уже почти не встретить. В этом плане moto g7 – приятное ретроисключение.
⇡#
**«Железо» и производительность**
Построен moto g7 на базе представленного прошлым летом и пока не ставшего по-настоящему популярным чипа Qualcomm Snapdragon 632. Он пришел на смену платформе Snapdragon 626 (которая, в частности, использовалась в полуфлагмане moto Z2 Play) и предлагает выросшую на 40 % производительность.
Платформа состоит из восьми ядер Kryo 250 тактовой частотой 1,8 ГГц, при этом четыре из них – энергоэффективные Kryo 250 Silver, еще четыре — более производительные Kryo 250 Gold. Графическая подсистема – Adreno 506 c тактовой частотой 650 МГц. Техпроцесс – 14 нм.
Qualcomm Snapdragon 632 обеспечивает смартфону-середняку подобающий уровень производительности – рассчитывать на то, что на moto g7 будут без запинки и на максимальном качестве графики идти все современные мобильные игры, не стоит. Где-то придется потерпеть просадки кадровой частоты, где-то – подрихтовать настройки. А вот вопросов по скорости запуска не требовательных к ресурсам приложений минимум — смартфон работает достаточно гладко. Тем не менее сравнение с конкурентами в тестах производительности moto g7 проигрывает – и это типичная картина для смартфонов этого бренда, увы.
Про выделенный чип для работы с нейросетями (NPU) речь применительно к Qualcomm 632 не идет, но при этом в грязь лицом платформа не ударила – уровень вполне приличный даже для прошлогоднего флагмана, с платформой Snapdragon 845. В moto g7 при этом «искусственный интеллект» применяется мало где – в камере, например, есть только режим автоматического спуска затвора при обнаружении в кадре улыбки, а также хорошо известный и доступный во всех Android-смартфонах режим Google Lens.
Система охлаждения эффективна – в бенчмарке CPU Throttling Test частоты понижаются до 88 % от максимума при средней производительности в 124,9 GIPS. Это отличный уровень по любым меркам.
Вариантов по объему памяти для moto g7 не предусмотрено – только 4 Гбайт оперативной и 64 Гбайт энергонезависимой. Оперативки для смартфона среднего класса с Full HD-дисплеем хватает с головой – можно открывать множество вкладок в браузере и не думать лишний раз о числе запущенных приложений, смартфон со всем этим уверенно справляется. А вот накопитель совсем небольшой – и можно было бы смартфон за это пожурить, но проблема очень легко решается за счет карты памяти microSD емкостью вплоть до 512 Гбайт. Причем не в ущерб второй симке – для нее предусмотрен выделенный слот.
⇡#
**Связь и беспроводные коммуникации**
В moto g7 доступно два слота для карточек стандарта nano-SIM, обе могут работать с сетями LTE. Встроенный модем позволяет рассчитывать на скорость скачивания данных до 300 Мбит/с и передачи – до 50 Мбит/с (LTE Cat.7/Cat.6). Поддерживаются все нужные для комфортной работы в России диапазоны.
Есть все необходимые беспроводные модули: Bluetooth 4.2 LE с поддержкой aptX, двухдиапазонный Wi-Fi 802.11a/b/g/n и NFC, причем полноценный, с поддержкой бесконтактной оплаты. Нет только ИК-порта. Навигационный модуль работает с системами GPS (A-GPS), ГЛОНАСС и Galileo – и делает это нормально.
В moto g7 установлена двойная тыльная камера, но рабочей, по сути, оказывается только одна из них – 12-мегапиксельный сенсор (физические размеры 1/2,9’’, размер пикселя – 1,25 мкм) с объективом светосилой
*ƒ*/2,0. Вторая камера (5 мегапикселей) отвечает исключительно за обеспечение корректного размытия фона в портретном режиме.
Оптический стабилизатор отсутствует, автофокус на месте – гибридная система в теории должна сочетать фазовые датчики с контрастной схемой, причем с использованием лазерного дальномера, но найти необходимый для этого датчик я так и не смог. Остается просто довериться пресс-релизу. По факту система автофокуса работает быстро и надежно – уровень непривычно высокий для смартфона такого класса.
Интерфейс камеры – слегка допиленное стандартное приложение для Android: достаточно взглянуть на то, что предлагается в Google Pixel 3, и поискать отличия. Они, безусловно, есть, но не слишком значительные. Оформление внятное, навигация чуть более спорная (нет возможности попасть к основным настройкам в один клик с главного экрана; все режимы съемки почему-то сосредоточены в подменю, а не вызываются смахиванием экрана). Есть виртуальный горизонт, несколько интересных режимов съемки, но сильно разочаровывает отсутствие «профессионального» режима с возможностью ввода настроек съемки вручную.
Специфических режимов в moto g7 три. «Обрезка» позволяет отделить объект от фона, добавив туда постфактум что-нибудь либо из числа шаблонов, либо совместив со своим собственным снимком. Своеобразная функция «хромакея» подручными средствами. Второй – «точечный цвет». Можно выбрать прямо в кадре, какой цвет оставить, остальные при этом исчезнут. Классический прием, который можно часто встретить в современных фотокамерах.
Третий – «Синемаграфия». При его активации нужно сделать серию снимков (75 максимум), которые затем объединяются в гифку (!) с возможностью регулировать, в какой зоне происходит движение, а в какой – нет. Это и правда оригинальная функция, с которой может быть интересно поиграться в разных обстоятельствах.
Портретный режим работает, на мой взгляд, грубовато, несмотря на наличие дополнительной камеры, которая должна помогать разделять фон и объект. Словно «маэстро фотошопа», неловко владеющий мышкой, moto g7 может размыть ухо или заметный клок волос.
На общее впечатление от качества съемки влияют три фактора: низкая светосила оптики, а также отсутствие оптического стабилизатора и возможности вручную управлять настройками съемки — никаких инструментов, кроме ввода экспокоррекции, у пользователя нет. Стоит отдать moto g7 должное: получить несмазанный снимок даже в темноте несложно – вместо увеличения выдержки смартфон поднимает ISO. Но чтобы скомпенсировать неизбежно появляющиеся на снимке при этом шумы, программное обеспечение убивает детали, и в результате снимки выглядят «мыльно». При съемке с нормальным светом этих проблем, естественно, нет – и тут стоит отметить очень хорошую цветопередачу при средненьком динамическом диапазоне и слабой работе оптики с контровым светом.
В moto g7 установлена 8-мегапиксельная фронтальная камера с объективом светосилой
*ƒ*/2,2, без вспышки и автофокуса. Все стандартно, ничего особенного про качество селфи, которые делает g7, сказать нельзя. Есть обязательное сегодня размытие фона – причем, на мой взгляд, одинарная фронталка делает это примерно на том же уровне, что и двойная тыльная камера.
В потенциальном локомотиве продаже Motorola установлен литий-ионный аккумулятор емкостью 11,4 Вт·ч (3000 мА·ч, 3,8 В). Для смартфона с 6,2-дюймовым ЖК-дисплеем – откровенно немного. Впрочем, это ни на что критически не повлияло: при рядовых сценариях использования смартфон спокойно живет на одном заряде световой день, а вот при максимальной нагрузке может и разрядиться за 7-8 часов, чего порой недостаточно. Запаса в автономности у g7 точно нет, но это нередко случается с современными смартфонами.
В нашем традиционном тесте с воспроизведением HD-видео, с включенным Wi-Fi и активными обновлениями, moto g7 показал ожидаемо слабый результат – шесть с половиной часов.
В комплекте идет 15-ваттный адаптер, который позволяет полностью зарядить смартфон примерно за полтора часа.
Найти для moto g7 свою нишу – занятие, пожалуй, непосильное. В начале обзора я поставил вопрос — за счет чего же Moto g7 собирается завоевать рынок, но ответить на него, кажется, не получится. Это симпатичный смартфон, сделанный качественно и на совесть, но в соревновании с Xiaomi, Honor и Zenfone Max у него нет козырей – не считать же пару необычных режимов камеры. По сочетанию цены и характеристик творение Motorola ожидаемо проигрывает обычным подозреваемым, и даже для тех, кто не бежит за «попугаями» в бенчмарках и ищет что-то особенное, есть смартфоны Nokia.
Даже коронная карта с модульным дизайном оказывается неразыгранной – не тот сегмент. На вопрос «Для кого создан moto g7?» можно дать только один более-менее вразумительный ответ: для фанатов бренда.
**Достоинства:** **Недостатки:** |
984,509 | Tom Clancy’s The Division 2 — вот как надо делать. Рецензия | |
Жанр |Экшен, ролевая игра, MMO
|
Издатель |Ubisoft
|
Издатель в России |Ubisoft
|
Разработчик |Massive Entertainment
|
Минимальные требования |Процессор Intel Core i5-2500K 3,3 ГГц/AMD FX-6350 3,9 ГГц, 8 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 2 Гбайт памяти, например NVIDIA GeForce GTX 670/AMD Radeon R9 270, 50 Гбайт на жестком диске, интернет-соединение и учетная запись в Uplay
|
Рекомендуемые требования |Процессор Intel Core i7-4790 3,6 ГГц/AMD Ryzen 5 1500X 3,5 ГГц, 8 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 4 Гбайт памяти, например NVIDIA GeForce GTX 970/AMD Radeon RX 480
|
Дата выхода |15 марта 2019 года
|
Возрастной ценз |от 18 лет
|
Платформы |PC, PlayStation 4, Xbox One
|
Официальный сайт *Игра протестирована на PlayStation 4*
Когда слышишь «игра-сервис», сразу представляешь себе незавершенный «скелет», который когда-нибудь, спустя несколько месяцев — или лет, избавится от всех болячек, обрастет контентом и наконец станет достоин внимания. Слишком часто в последнее время мы обжигались, доверяя разработчикам и выслушивая их обещания по поводу постоянных обновлений. Destiny, первая The Division, Sea of Thieves, Anthem — все эти проекты уже через несколько недель начали терять аудиторию, в то время как их создатели продолжали уверять, что когда-нибудь все станет лучше. И в большинстве случаев ситуация действительно выправлялась, вот только игроки к этому моменту уже уходили.
И тут появляется The Division 2. Сиквел, исправивший практически все недочеты оригинала. Показавший, как нужно делать игру-сервис, чтобы спустя неделю недовольные фанаты не заваливали социальные сети отрицательными отзывами. Чтобы при выставлении оценки не приходилось добавлять «но» после перечисления недостатков, надеясь, что сносная игра наверняка станет великолепной после нескольких патчей. The Division 2 — отличный и продуманный кооперативный шутер с массой контента уже сейчас, а не когда-нибудь потом. Покидать улицы Вашингтона не хочется даже спустя четыре десятка часов.
Единственная категория игроков, которая гарантированно окажется разочарована новинкой, — это люди, ожидавшие от сиквела более качественной истории. К сожалению, ее здесь нет. События разворачиваются спустя семь месяцев после финала первой части — вы вновь берете на себя роль агента Спецотряда, но вместо заснеженного Нью-Йорка отправляетесь в более яркий Вашингтон: на руинах города резвится живность, а люди построили много убежищ. Ваша задача — помогать уцелевшим, побеждать их обидчиков и улучшать положение в столице.
Больше ничего о сюжете знать не нужно, потому что большего он и не предлагает. Да, тут есть важные для истории персонажи, с которыми вы время от времени переговариваетесь в их импровизированных офисах, но в конечном итоге их посещаешь лишь ради получения новых заданий — выслушивать пространные монологи (а протагонист опять молчит) скучно. Имена забудутся, внешность тоже — сюжет нужен лишь для того, чтобы хоть как-то объяснить, почему вы бегаете по городу и убиваете сотни и тысячи людей.
К счастью, впечатление это не портит, поскольку все остальное выполнено на очень высоком уровне. Взять хотя бы миссии — многие из них в плане задач не сильно отличаются от Destiny или Anthem: сходи туда, убей тех, забери то, принеси туда. Но декорации захватывают дух и завораживают. Казалось бы, воссозданный Вашингтон — далеко не такое интересное место, как экзотические джунгли или другие планеты, но художники и дизайнеры The Division 2 умеют удивлять. Во время прохождения вы посетите музеи, театры, концертные залы, мрачную подземку, заброшенные лаборатории, опустевшие офисы. В одном из эпизодов агент отправляется в планетарий, где под комментарии аудиогида перестреливается с врагами, — и таких необычных и запоминающихся моментов полно.
Интересно наблюдать и за тем, как ваши действия влияют на развитие убежищ. Операционная база и поселения поначалу выглядят плачевно: повсюду валяется мусор, двери закрыты, кругом угрюмые и недовольные жизнью люди. Зато после прохождения сюжетных и побочных миссий появляются новые комнаты, открываются лавки, начинают функционировать детские школы. Жители работают на пасеках, заказывают лекарства для аптек. Среди доступных опций появляются станции перекалибровки и даже парикмахерские, позволяющие изменить внешность посреди прохождения. Некоторые улучшения напрямую влияют на возможности сил сопротивления — в какой-то момент они начинают использовать слезоточивый газ, когда помогают вам в перестрелках.
Ощущение постоянного прогресса не исчезает ни на минуту. Здесь не просто пробегаешь все подряд, чтобы поскорее покончить с основной историей и отправиться «фармить» качественные вещи. Процесс достижения максимального уровня не менее увлекателен, чем все, что за ним следует. Сюжетных заданий полно, побочными поручениями заваливают на каждом шагу, а Вашингтон полон развлечений и случайных событий: захват контрольных точек, предотвращение казней мирных жителей, войны за контроль над территориями, передвигающиеся конвои с ресурсами — по пути к следующему заданию непременно на что-то наткнешься. Не говоря уже о знакомых по первой части телефонах и ЭХО-записях. Слушать эти обрывки истории гораздо интереснее, чем диалоги в роликах.
Инвентарь очень быстро заполняется трофеями. Вы по-прежнему собираете перчатки, наколенники, бронежилеты, маски, кобуры и рюкзаки. Теперь можно носить четыре типа оружия: две основные пушки, пистолет с бесконечными патронами и фирменное оружие, выдаваемое по достижении 30-го уровня, когда вы выбираете специализацию. За каждую миссию полагаются призы, большинство крупных противников что-то оставляет после себя, при получении очередного уровня выдают ящик с предметами. Но собирать нужно не только экипировку — повсюду полно коробок и пакетов с ресурсами и спецматериалами, которые тоже нельзя игнорировать. Поэтому в сюжетных и побочных миссиях не носишься от точки к точке, а изучаешь все закоулки, ищешь способы открыть запертые двери и проверяешь каждый угол. И игра обязательно за это вознаграждает.
Для любителей постоянно улучшать характеристики тут настоящий рай. Производственная станция позволяет создавать не только экипировку со случайными параметрами (что уже станет поводом собирать ресурсы), но и модификации пушек. Любое найденное оружие можно тут же увесить апгрейдами: рукояткой для повышенной стабильности, влияющим на скорострельность магазином и так далее. Модификации, к счастью, не одноразовые — создав обвес, вы можете применять его к неограниченному количеству пушек. Однако у всех есть как достоинства, так и недостатки — нужно решать, хотите ли вы, к примеру, повышать скорость перезарядки, жертвуя при этом меткостью или оптимальной дальностью.
А следить за характеристиками придется — особенно если вы планируете долго не расставаться с игрой. Искусственный интеллект противников заметно улучшен по сравнению с первой частью, да и сами недруги стали значительно сильнее, поэтому желательно всегда иметь с собой наилучшее оружие и быть готовым к любому бою. Если раньше опасаться патрулей на улицах города не приходилось, то теперь они способны уничтожить агента за считаные секунды. То же и в миссиях, особенно на повышенной сложности, — представители вражеских фракций не только больно бьют, но и используют разные тактики. Одни бегут напролом с оружием ближнего боя, другие стреляют издалека, третьи используют турели, огнеметы и гранатометы. Постоянно сидят за укрытиями, прячутся, перебегают на более удобные позиции — отдыхать некогда, окружат моментально.
С точки зрения игрового процесса все здесь сделано на совесть и намного лучше, чем в первой части. Поэтому каждой новой возможности заняться чем-то интересным радуешься: проверяешь особые цели в разделе «Ликвидация», выполняешь проекты, для которых необходимо завершать задания в разных регионах, искать коллекционные предметы и жертвовать ненужные вещи из инвентаря. В награду дают опыт, ценные материалы, чертежи снаряжения и модификаций, предметы и прочие бонусы — стимул не пропускать эти активности есть всегда.
За частое посещение «Темной зоны» тоже дают полезные улучшения (пусть все они применимы только в этом режиме). В отличие от первой части, в сиквеле таких зон три — в двух характеристики всех участников уравниваются, а в третьей ваша сила зависит от экипировки. Когда все находятся в равных условиях, играть становится интереснее — «старички» не насмехаются над «зелеными» из-за отсутствия у них качественных вещей, а новички комфортно себя чувствуют и могут дать обидчикам отпор. В остальном это все то же напряженное состязание, которое в любой момент может обернуться перестрелкой с другими игроками. Или нет — некоторые готовы сотрудничать, а не воевать. Но спасательный вертолет, позволяющий вытащить из зоны добытые трофеи, всегда вызываешь с опаской.
Крупным нововведением стала система кланов, на фоне которой подобная в Destiny 2 выглядит жутким позорищем. Тут есть поиск по названиям и общий список, есть текстовые чаты, в нижней части экрана вылезают сообщения и приглашения от товарищей. Вместе вы разблокируете еженедельные контейнеры с ценными предметами и зарабатываете опыт в различных развлечениях. Вдобавок уровень клана со временем повышается — так вы улучшаете качество наград, получаете доступ к особым косметическим предметам, прокачиваете товары у специального торговца. Если вы хотите создать свой маленький клан с парой участников, могут возникнуть некоторые проблемы из-за нехватки получаемого опыта, так что желательно присоединиться к большой группе людей.
Всем вышеперечисленным предстоит заниматься как до завершения сюжетной кампании, так и после. После прохождения основных миссий стартует эндгейм, в котором улицы Вашингтона заполоняют представители новой, четвертой фракции — «Черные бивни». Они опаснее всех предыдущих противников как минимум тем, что гораздо активнее используют технику и периодически шерстят переулки с роботизированными собаками. Дополнительные локации не открываются, миссии в эндгейме разворачиваются в тех же декорациях. Однако благодаря тому, что сражаться предстоит с более сильными соперниками, игра остается свежей еще очень долго.
«Черные бивни» терроризируют весь город, получают контроль над уже захваченными ранее убежищами, — борьба с ними похожа на непрекращающуюся войну добра со злом. Поэтому система глобальных этапов в контексте The Division 2 выглядит очень логично: как только вы накапливаете определенный показатель снаряжения (вместо уровней персонажа учитывается качество надетых вещей), завершаете непростые вторжения и захватываете укрепление, вы переноситесь на следующий этап, где можно заработать еще более мощную экипировку, и повторяете этот процесс несколько раз. Сейчас все стремятся получить подходящую сборку для грядущего пятого этапа, а уже в нем предстоит готовиться к предстоящему рейду на восьмерых.
*******
The Division 2 регулярно вознаграждает за самые разные действия и непрерывно вводит в игровой процесс новые механики. Те же специализации в конце «сюжетки» — не просто дополнительные виды оружия с редкими боеприпасами, а целые ветки с пассивными навыками и улучшениями, на которые предстоит долго копить очки. Прелесть игры в том, что, даже если Ubisoft завтра сообщит о прекращении ее поддержки, The Division 2 все равно останется богатым на развлечения проектом, достойным внимания. А ведь впереди нас ждут многочисленные обновления и три бесплатных DLC! Жаль, основной сюжет оказался пустышкой, но кто и зачем будет играть в это ради истории? Мы тут собрались за растущими циферками в инвентаре наблюдать, а не поствашингтонскую политику обсуждать.
**Достоинства:** **Недостатки:**
|
|
Роскошные детализированные локации, меняющие атмосферу погодные явления — тут даже обычные миссии хочется изучать, а не пробегать побыстрее.
|
|
Трудно вспомнить какие-то музыкальные композиции, зато озвучение в русской версии получилось хорошим.
|
|
Проходить игру в одиночку можно — миссии будут трудными, но увлекательными, поскольку полагаться придется исключительно на себя, а враги поблажек не делают. Но на более высокой сложности обойтись без помощи напарников уже не получится.
|
|
Как и первая часть, The Division 2 особенно хороша в кооперативе. Вместе продумывать тактики, обмениваться выпавшими трофеями (особенно удобно «протаскивать» слабых друзей и дарить им высокоуровневые вещи), освобождать Вашингтон от захватчиков долго не надоедает. Плюс везде можно искать случайных попутчиков, если знакомые заняты. Да и система кланов сделана толково.
|
|
Первая за долгие годы игра-сервис, которая предлагает много контента сразу же, а не держится на шатких обещаниях. Отличный боевик в роскошных декорациях, исправивший ошибки предшественника и сделавший погоню за трофеями еще более увлекательной.
*Оценка: 9* *,0* */10* **Видео:** |
984,589 | Обзор смартфона Xiaomi Redmi Note 7: сдвигающий горизонт | В 2018 году Xiaomi поразила плотностью своих анонсов – в семействе смартфонов этой компании, бурно развивающейся после некоторого застоя двухлетней давности, разобраться становится уже крайне тяжело. Бесконечное число модификаций, серий, подсерий, внутренней конкуренции. Даже флагман выбрать непросто – на эту роль претендует как Mi MIX 3, так и Mi 9. Не будем пытаться объять необъятное и рассказывать обо всех смартфонах из серии Redmi – надо взять из них один, но гарантированно хитовый (как и почти любой из них), символичный и громогласно заявляющий свои претензии на трон «лучшего среди недорогих». А сейчас это именно Redmi Note 7.
Актуальнейший 6,3-дюймовый дисплей с вырезом-«капелькой», платформа Qualcomm Snapdragon 660, которой оснащаются и гаджеты в два раза более дорогие, двойная камера с 48-мегапиксельным главным модулем, стеклянный корпус. Это не то, чего ждешь от смартфона за 15-18 тысяч рублей, не правда ли? Но Xiaomi привычным взмахом дисконтной волшебной палочки смещает границу ожидаемого – и теперь всем придется тянуться именно к Redmi Note 7. Фокус привычный, но не оказалось ли в этом волшебном движении каких-то изъянов?
|
Xiaomi Redmi Note 7 |
Xiaomi Redmi Note 5 |
ASUS Zenfone Max Pro (M2) |
Nokia 7.1 |
Honor 8X
|
Дисплей |6,3 дюйма, IPS, 2340 × 1080 точек, 409 ppi; емкостный, мультитач
|5,99 дюйма, IPS, 2160 × 1080 точек, 403 ppi; емкостный, мультитач
|6,26 дюйма, IPS, 2280 × 1080 точек, 403 ppi; емкостный, мультитач
|5,84 дюйма, IPS, 2280 × 1080 точек, 432 ppi; емкостный, мультитач
|6,5 дюйма, IPS, 2340 × 1080 точек, 396 ppi, емкостный мультитач
|
Защитное стекло |Corning Gorilla Glass 5
|Нет информации
|Corning Gorilla Glass 6
|Corning Gorilla Glass 3
|Нет информации
|
Процессор |Qualcomm Snapdragon 660: восемь ядер Kryo 260, частота 2,2 ГГц
|Qualcomm Snapdragon 636: восемь ядер Kryo 260 (8 × 1,8 ГГц)
|Qualcomm Snapdragon 660: восемь ядер Kryo 260, частота 2,2 ГГц
|Qualcomm Snapdragon 636: восемь ядер Kryo 260 (8 × 1,8 ГГц)
|HiSilicon Kirin 710: восемь ядер (4 × Cortex A73 2,2 ГГц + 4 × Cortex A53 1,7 ГГц)
|
Графический контроллер |Adreno 512, 850 МГц
|Adreno 509, 720 МГц
|Adreno 512, 850 МГц
|Adreno 509, 720 МГц
|ARM Mali-G51 MP4, 650 МГц
|
Оперативная память |3/4 Гбайт
|3/4 Гбайт
|4 Гбайт
|3/4 Гбайт
|4/6 Гбайт
|
Флеш-память |32/64/128 Гбайт
|32/64 Гбайт + microSD
|64 Гбайт
|32/64 Гбайт
|64/128 Гбайт
|
Разъемы |USB Type-C, 3,5 мм
|MicroUSB, 3,5 мм
|MicroUSB, 3,5 мм
|USB Type-C, мини-джек 3,5 мм
|MicroUSB, мини-джек 3,5 мм
|
Слот для карты памяти |Есть
|Есть
|Есть (отдельный слот для microSD)
|Есть
|Есть (отдельный слот для microSD)
|
SIM-карты |2 × nano-SIM
|2 × nano-SIM
|2 × nano-SIM
|2 × nano-SIM
|2 × nano-SIM
|
Сотовая связь 2G |GSM/GPRS/EDGE 850/900/1800/1900 МГц
|GSM/GPRS/EDGE 850/900/1800/1900 МГц
|GSM/GPRS/EDGE 850/900/1800/1900 МГц
|GSM/GPRS/EDGE 850/900/1800/1900 МГц
|GSM/GPRS/EDGE 850/900/1800/1900 МГц
|
Сотовая связь 3G |HSDPA 850/900/1900/2100 МГц
|UMTS 850/900/1900/2100 МГц
|UMTS 850/900/2100 МГц
|WCDMA 850/900/1900/2100 МГц
|HSDPA 850/900/1900/2100 МГц
|
Сотовая связь 4G |LTE Cat. 12 (600 Мбит/с), диапазоны 1, 2, 3, 4, 5. 7, 8, 20, 28, 38, 40
|LTE Cat. 12 (600/ 100 Мбит/с), диапазоны 1, 3, 5, 7, 8, 34, 38, 39, 40, 41
|LTE Cat. 9 (450 Мбит/с), диапазоны 1, 3, 5, 7, 8, 20, 40
|LTE Cat. 6 (300/50 Мбит/с): диапазоны неизвестны
|LTE Cat. 4 (150 Мбит/c), диапазоны 1, 3, 7, 8, 34, 38, 39, 40, 41
|
Wi-Fi |802.11 a/b/g/n/ac; 2,4/5 ГГц
|802.11 a/b/g/n/ac; 2,4/5 ГГц
|802.11 b/g/n; 2,4 ГГц
|802.11 b/g/n/ac; 2,4/5 ГГц
|802.11a/b/g/n/ac; 2,4/5 ГГц
|
Bluetooth |5.0
|5.0
|5.0
|5.0
|4.2 (aptX)
|
NFC |Нет
|Нет
|Есть
|Есть
|Есть
|
Навигация |GPS, A-GPS, ГЛОНАСС, BeiDou
|GPS, A-GPS, ГЛОНАСС, BeiDou
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo, QZSS
|GPS, A-GPS, ГЛОНАСС
|GPS, A-GPS, ГЛОНАСС, BeiDou
|
Датчики |Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), ИК-датчик
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), ИК-датчик
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|
Сканер отпечатков пальцев |Есть
|Есть
|Есть
|Есть
|Есть
|
Основная камера |Двойной модуль: 48 Мп, ƒ/1,8 + 5 Мп, ƒ/2,2, фазовый автофокус, двойная светодиодная вспышка
|Двойной модуль: 12 Мп, ƒ/1,9 + 5 Мп, фазовый автофокус, двойная светодиодная вспышка
|Двойной модуль: 12 Мп, ƒ/1,8 + 5 Мп, фазовый автофокус, светодиодная вспышка
|Двойной модуль: 12 + 5 Мп, ƒ/1,8 + ƒ/2,4, автофокус, двойная светодиодная вспышка
|Двойной модуль: 20 ƒ/1,8 + 2 Мп, фазовый автофокус, светодиодная вспышка
|
Фронтальная камера |13 Мп, без автофокуса, без вспышки
|13 Мп, без автофокуса, со вспышкой
|13 Мп, ƒ/2,0, без автофокуса, без вспышки
|8 Мп, ƒ/2,0, без автофокуса, со вспышкой
|16 Мп, ƒ/2,0, автофокус, без вспышки
|
Питание |Несъемный аккумулятор: 15,28 Вт·ч (4000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 15,28 Вт·ч (4000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 19 Вт·ч (5000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 11,63 Вт·ч (3060 мА·ч, 3,8 В)
|Несъемный аккумулятор: 14,25 Вт·ч (3750 мА·ч, 3,8 В)
|
Размер |159,2 × 75,2 × 8,1 мм
|158,6 × 75,4 × 8,05 мм
|157,9 × 75,5 × 8,5 мм
|149,7 × 71,2 × 7,99 мм
|160,4 × 76,6 × 7,8 мм
|
Масса |186 г
|181 г
|175 г
|160 г
|175 г
|
Защита от воды и пыли |Нет
|Нет
|Нет
|Нет
|Нет
|
Операционная система |Android 9.0 Pie, оболочка MIUI
|Android 8.0 Oreo, оболочка MIUI
|Android 8.1 Oreo
|Android 8.1.0 Oreo
|Android 8.1 Oreo, оболочка EMUI
|
Актуальная цена |13 990 рублей за версию 3/32 Гбайт, 16 890 рублей за версию 4/64 Гбайт, 20 000 рублей за версию 6/64 Гбайт
|12 450 рублей за версию на 32 Гбайт, 12 890 рублей за версию на 64 Гбайт
|16 970 рублей за версию 4/64 Гбайт, 19 990 рублей за версию 4/128 Гбайт
|16 880 рублей за версию 3/32 Гбайт
|17 990 рублей за версию 4/64 Гбайт, 19 580 рублей за версию 4/128 Гбайт
⇡#
**Дизайн, эргономичность и программное обеспечение**
Никто не ждет от Redmi дизайнерских подвигов, это смартфоны не для эстетического наслаждения, а для утилитарных нужд. Но привычно кондовый подход в случае Redmi Note 7 уступил место взгляду, не лишенному изящества. Если уменьшение выреза до «капельки» с вкраплением одинокой фронтальной камеры читалось (так сейчас делают почти все), то замена металлической задней панели стеклянной – ход сколь своевременный, столь и приятный в отношении бюджетного смартфона. Note 7 – тот редкий Redmi, который не уступает по сочетанию цены и характеристик (вроде яркого Honor 8X) ни конкурентам, ни даже примерам «благородного» подхода, вроде Nokia 7.1 или Moto g7. Не хватает ему разве что собственного лица, но это сегодня проблема далеко не только Redmi.
Более того – в этот раз Xiaomi не поскупилась на интересные цвета. Помимо скучной (но солидно смотрящейся) черной версии, которая и оказалась у нас на тестировании, представлены также синий и розовый Redmi Note 7, с модным сегодня переливающимся корпусом, который слегка меняет оттенок в зависимости от внешнего освещения и угла зрения.
Габариты Redmi Note 7 – 159,2 × 75,2 × 8,1 мм. В сравнении с Redmi Note 5 (промежуточный Redmi Note 6 пролетел мимо нас яркой, но почти лишенной жизненного срока кометой, так что сравнивать будем с «пятеркой») размеры почти не изменились (отличия в миллиметры, причем есть как прирост, так и «похудение») при том, что экран стал больше. Спасибо той самой «капельке», за счет которой строка состояния поднялась чуть выше. Причем в данном случае ущерб последней не нанесен – доступно отображение всех привычных параметров, от процентов заряда батареи до скорости сети.
Скрыть эту «капельку», как крупный вырез в Mi 8 или Redmi Note 6, нельзя. Производитель посчитал, что пользователю она не будет мешаться. Мнение спорное, но остается с ним только согласиться – выбора у нас нет, залить черным строку состояния нельзя. При просмотре видео на весь экран фронталка будет торчать прямо посреди картинки, пусть и с левого ее края.
Спинка Redmi Note 7, повторюсь, выполнена из стекла – вероятно, закаленного, но конкретной информации по этому поводу Xiaomi не предоставляет. А хорошо бы, чтобы закаленного, – смартфон получился очень скользким. И пусть с любой неровной поверхности он уползти не пытается (спинка не изогнутая), но из руки ускользнуть – очень даже. Добро пожаловать в мир чехлов и бамперов. В комплекте, к слову, есть один, из «тонированного» силикона.
Набор элементов управления – самый что ни на есть традиционный: две клавиши по правому борту и сканер отпечатков на задней панели. Наэкранные сканеры к Redmi пока не приехали, это, видимо, дело будущего года. Не скажу, что очень расстроен, – емкостные сенсоры, может, и не кажутся столь передовыми, но работают сейчас значительно лучше ультразвуковых.
На месте и 3,5-мм аудиоразъем, а вот microUSB наконец-то уступил место порту USB Type-C – теперь «микро» можно признать официально устаревшим, Redmi Note здесь можно считать вполне адекватным реальности водоразделом.
Про сканер отпечатков я уже сказал выше – он работает быстро и без сбоев. При желании можно также подключить и распознавание лица, но это абсолютный факультатив для тех, кто не очень беспокоится по поводу безопасности. За идентификацию пользователя отдувается одинокая фронтальная камера.
Работает Xiaomi Redmi Note 7 под управлением операционной системы Android 9.0 Pie с оболочкой MIUI актуальной версии 10.2. Я про нее уже писал в обзорах Mi MIX 3 и — совсем недавно — Mi9. По сравнению с последним она чуть упрощена (изменились анимации экрана блокировки) и при этом лучше работает – по крайней мере, на непереведенные куски я здесь уже не натыкался. В остальном – привычные достоинства (много настроек, быстрая и стабильная работа) и недостатки (часть иконок, в том числе сервисов Google, зачем-то одеты в белые квадраты; нет нормальной системы поиска по памяти смартфона; встроенная в самые разные приложения реклама).
Xiaomi много в чем расщедрилась при создании Redmi Note 7, но не на OLED-дисплей. Для гаджетов этой ценовой категории такое пока остается редкостью, доступной, пожалуй, только Samsung (и часто у корейских «бюджетников» просто нет других достоинств). Здесь – вполне рядовой IPS-дисплей диагональю 6,3 дюйма, форматом 19,5:9 и разрешением 2340 × 1080 точек (Full HD+). Плотность пикселей составляет 409 ppi. Никаких вопросов по детализации нет – все вполне адекватно позиционированию смартфона.
У Redmi Note7 есть даже одно преимущество перед в два раза более дорогим Mi 9 – куда более качественное олеофобное покрытие. Оттереть следы от пальцев с экрана этого смартфона намного проще, он не выглядит все время заляпанным. С задней панелью все не так просто, это вечная проблема «зеркальных» гаджетов, и решается она только использованием чехла. Сенсорное покрытие, к слову, тоже не отличается гиперчувствительностью – смартфон не пытается кому-то дозвониться из кармана и при этом реагирует на 10 одновременных касаний, на этом экономить не стали.
Максимальная измеренная яркость дисплея Xiaomi Redmi Note 7 составила 514 кд/м
2 – по сравнению с и так неплохим в этом плане Redmi Note 5 есть небольшой прирост. Причем в солнечный день экран включает режим повышенной яркости (независимо от того, используете ли вы автоподстройку под внешнее освещение или нет): цвета искажаются, черный совершенно исчезает, но зато проблемы с читаемостью абсолютно исключены. Поддержка HDR10 не заявлена, так что Nokia 7.1 пока остается в этом сегменте своеобразным уникумом.
Контрастность неплохая для IPS-матрицы, но не более того – 1347:1.
В настройках доступна регулировка цветового тона (от холодного к теплому), но только при активации автоматической настройки «контрастности» – почему этот параметр называется именно так, никто не объясняет. Как и в случае с Mi 9, регулировать цветовой тон можно только при адаптивной цветопередаче (здесь – «автонастройке контрастности»). При выборе «повышенной» или «стандартной контрастности» вы лишитесь этой возможности, а цветовой охват будет расширен и приближен к sRGB. Я измерил цветопередачу в адаптивном и стандартном режимах. Измерение проводилось в комнате с включенными лампами накаливания.
В автоматическом режиме при свете ламп накаливания гамма соcтавляет 2,26, линии кривых ведут себя ожидаемым образом. Цветовая температура сильно завышена, в промежутке от 8 000 до 10 000 К с медианой в районе 9 500 К – цвета сильно холоднее должного. Цветовое пространство расширено, но говорить о приближении к стандарту DCI-P3, конечно, нельзя. Среднее отклонение DeltaE по шкале Color Checker, включающей в себя как широкий спектр цветов, так и оттенки серого, составило 6,45 при норме в 3,00 – уровень посредственный.
При активации «стандартной контрастности» гамма составляет уже 2,20, кривые ведут себя по-другому, но тоже не идеально. Цвета сильно теплеют – цветовая температура держится на уровне 7 000 К, что уже совсем близко к норме (6 500 К). Среднее отклонение DeltaE по шкале Color Checker укладывается в границы нормы и приближается к эталону, составляя 2,81. Цветовое пространство при этом не соответствует стандарту sRGB, а только стремится к нему, представляя собой треугольник примерно того же периметра, но с искажениями. В целом дисплей Redmi Note 7 настроен хорошо – уровень, может, и не флагманский, но неожиданно высокий для смартфона этой ценовой категории.
Качество звука у Redmi Note 7 рядовое. Есть мини-джек, есть и Bluetooth 5.0 с поддержкой профиля aptX, позволяющего передавать данные высокого разрешения. Звук — и при использовании проводного метода, и без проводов — выдается стабильного качества, но в обоих же случаях ощущается серьезный недостаток мощности. Даже максимальной громкости в общественном транспорте (особенно метро) не хватает, очень хочется взять наушники с активным шумоподавлением. Внешний динамик монофонический, расположен на нижней грани и не перекрывается пальцем, если держать гаджет в горизонтальном положении. Вот он как раз достаточно громкий, пусть и не демонстрирует интересного звучания. Разговорный динамик и микрофон нормальные – общаться при помощи Redmi Note 7 можно спокойно.
⇡#
**«Железо» и производительность**
Qualcomm Snapdragon 660 – платформа не самая новая, мы ее видели в прошлом году на целом ряде смартфонов самых разных ценовых категорий: от прямого конкурента Redmi Note 7 — ASUS Zenfone Max Pro (M2) — и смартфонов среднего класса — Nokia 7 Plus, Smartisan U3 Pro — до гаджетов, которые стоят едва ли не в три раза дороже нашего «редми», — BlackBerry KEY2 и Samsung Galaxy A9 (2018). По состоянию на март 2019 года Snapdragon 660 не утратила своей актуальности и смотрится вполне конкурентоспособно на общем фоне, так что выбор этой платформы более чем обоснован.
В Qualcomm Snapdragon 660 используется восемь ядер Kryo 260 с частотой до 2,4 ГГц и графическая подсистема Adreno 512 с тактовой частотой 850 МГц. Изготавливается платформа по 14-нм технологическому процессу. Мощности вполне хватает для того, чтобы операционная система работала гладко, а базовые приложения запускались быстро и работали без сбоев. Также вполне можно рассчитывать и на нормальную производительность в большинстве игр – тут, правда, уже придется повозиться с настройками. Ну и не стоит надеяться на серьезный многолетний запас мощности, смартфон как игровой гаджет будет неплох только здесь и сейчас.
Неплох, но не хорош: у Xiaomi Redmi Note 7 есть ахиллесова пята – система охлаждения. Бенчмарк CPU Throttling Test продемонстрировал падение производительности до 54% от максимума, причем не в какой-то момент, а именно постепенное скатывание к этому показателю. Ядра достаточно быстро понижают свою частоту до 70-80%, а уже через 10 минут серьезной нагрузки – до 55-60%, Средняя производительность составляет 111,5 GIPS при доступном максимуме в 152 GIPS. Уровень слабый – при том, что Xiaomi умеет решать такие проблемы. Как правило, смартфоны этой компании если и не находятсяв топе среди себе подобных, то как минимум не проваливаются. Redmi Note 7 – исключение.
В операциях с задействованием нейросетей Redmi Note 7 проявляет себя молодцом – до смартфонов с Kirin 980 или Snapdragon 855 он, конечно, не дотягивается, но использование искусственного интеллекта не ставит его в тупик.
Xiaomi, как обычно, предлагает множество вариантов своих смартфонов по объему как оперативной, так и энергонезависимой памяти: 3, 4 или 6 Гбайт «оперативки», объем накопителя – 32, 64 или 128 Гбайт. С постоянной памятью, как видите, скромно, но можно использовать microSD емкостью до 256 Гбайт – ради этого придется пожертвовать слотом для второй SIM-карты, здесь используется гибридная схема.
⇡#
**Связь и беспроводные коммуникации**
Модем, встроенный в платформу Qualcomm Snapdragon 660, позволяет рассчитывать на действительно высокую скорость LTE-соединения – в данном случае речь о поддержке LTE Cat. 12 c максимальной скоростью приема данных в 600 Мбит/с. И в данном случае не приходится делать поправку на недостаточный набор поддерживаемых диапазонов – глобальная версия Redmi Note 7 работает со всеми необходимыми как в России, так и в Европе.
В Redmi не меняется много вещей: это, как всегда, смартфоны, которые превосходят по характеристикам прямых конкурентов; это обязательные хиты продаж; это гаджеты, с помощью которых нельзя оплачивать покупки бесконтактным способом. Не знаю, что должно произойти, чтобы Xiaomi все-таки установила в свои «народные» модели NFC-модуль. В остальном набор беспроводных соединений, с которыми работает Redmi Note 7, кажется исчерпывающим: Bluetooth 5.0, Wi-Fi 802.11 a/b/g/n/ac, ИК-порт. Навигационная система работает с GPS (в том числе A-GPS), ГЛОНАСС, BeiDou и делает это на качественном уровне.
Если основное слабое место Redmi Note 7 – отсутствие NFC, то самое сильное – это, пожалуй, камера. Смартфон получил двойной модуль с камерой-дублером, которая просто помогает размыть фон при портретах. Никакого зума, никакого широкоугольного режима. Но это не так важно, потому что главный модуль – 48-мегапиксельный Samsung ISOCELL Bright GM1(физические размеры – 1/2’’, размер отдельного пикселя – 0,8 мкм). Того же типа, что в Xiaomi Mi 9 и Honor View 20, но от другого производителя (в них установлен модуль Sony IMX586 – этим сенсором оснащается версия Pro).
Как и в упомянутых выше моделях, оптическая стабилизация отсутствует, но в данном случае набрасываться на гаджет с упреками уже не хочется, все-таки речь даже близко не о флагмане (разве что в семействе Redmi). Система фокусировки – фазовая, работает быстро и уверенно, проблем не возникает ни при дневной съемке, ни при недостаточном освещении.
По умолчанию камера Redmi Note 7 снимает с разрешением в 12 мегапикселей (размер снимков – примерно 4-5 Мбайт), применяется система Quad Bayer с группировкой по четыре датчика в один пиксель. Подробнее я рассказывал об этом в обзоре Honor View 20. Но переключиться на предельное разрешение все-таки можно – для этого необходимо перейти в «профессиональный» режим и активировать настройку. Снимки на выходе занимают уже 12-13 Мбайт и прибавляют в детализации, но не так значительно, как может показаться «на бумаге».
В стандартном меню фотосъемки место 48-мегапиксельного режима занимает иконка «AI», которая подключает к процессу нейросетевые вычисления. Смартфон пытается опознать ситуацию и не просто изменить настройки сообразно ей, а где-то поднять насыщенность, где-то подрихтовать экспозицию и так далее. Делается это на уровне Mi 9 – местами выглядит уместно, местами – откровенный перебор. Дело вкуса, конечно, но увлекаться с этим режимом не стоит.
По сравнению с Mi 9 работа AI-камеры даже немного улучшилась (впрочем, вероятнее всего, эти функции уже прилетели и на флагман Xiaomi с новой прошивкой). Если снимать человека в стандартном режиме (не переключаясь на портретный) против света, смартфон сам спросит, что делать – поднимать общую яркость фотографии или снимать силуэт. Можно выбрать. Вот такое развитие искусственного интеллекта в смартфонах мне по душе.
В портретном же режиме все стандартно – размывается задний фон. Можно включить бьютификатор, а вот различные световые эффекты, как в Mi MIX 3 или Mi 9, недоступны.
Зато доступен знакомый по старшим смартфонам ночной режим, в котором камера делает несколько снимков, объединяя их затем в один файл с повышенным динамическим диапазоном и пониженными шумами. Работает, как правило, хорошо, хотя, как мы знаем по тому же Mi 9, бывают и проблемы, когда программное обеспечение «перебирает» с повышением контурной резкости и насыщенности.
Приложение камеры – стандартное для MIUI 10. На месте и включенный по умолчанию водяной знак с указанием модели смартфона, на который вы делаете снимки, — не забудьте своевременно его отключить.
Общее впечатление от работы камеры Xiaomi Redmi Note 7 – сугубо положительное. Конечно, оно во многом корректируется ценой гаджета, до флагманского уровня ей не хватает многого: и оптического стабилизатора, и зума, и более широких возможностей по съемке (различные эффекты, съемка в RAW). Но для своего класса это действительно очень хороший уровень – Redmi Note 7 позволяет рассчитывать на приличное качество снимков при любом освещении. Это едва ли не первый раз, когда можно говорить если не о лидерстве аппарата Xiaomi в своем классе, то о полноценной заявке на это.
За селфи отвечает 13-мегапиксельная фронтальная камера с оптикой светосилой
*f*/2,0. Похоже на то, что это тот же модуль, что и в Redmi Note 5, но лишенный по понятным причинам вспышки. По качеству съемки – все очень неплохо. Пространственные искажения минимальны, есть возможность размывать фон, дистанция фиксированного фокуса подобрана корректно.
Аккумулятор в Redmi Note 7 установлен такой же, как и в Redmi Note 5, – 15,28 Вт·ч (4000 мА·ч, 3,8 В). Но при этом подрос экран и установлена более мощная аппаратная платформа. Логично, что автономностью смартфон не блещет. На сутки при стандартной нагрузке Note 7 хватает с трудом, а при максимальной он со скрипом живет световой день.
В нашем традиционном тесте с воспроизведением HD-видео на максимальной яркости с включенными обновлениями и уведомлениями смартфон продержался ровно восемь часов. Довольно неплохо, но снижение показателя по сравнению с Redmi Note 5 очевидно.
Для зарядки используется порт USB Type-C, поддерживается система Quick Charge 4 (18 Вт). Но в комплекте 18-ваттный адаптер ожидаемо не идет – только стандартный на 10 Вт. С его помощью на полную зарядку смартфона уходит около двух часов. Беспроводная зарядка не поддерживается.
Все Redmi в той или иной степени становятся народными смартфонами, но столь бескомпромиссной заявки, как в Redmi Note 7, я не видел, если честно, давно. У этого смартфона можно найти только два по-настоящему слабых места: отсутствие NFC и сильную подверженность троттлингу.
В остальном это действительно мощная заявка на лидерство в своей категории, причем в этот раз не просто «потому что это дешево и Xiaomi»: наконец-то неплохой и актуальный дизайн, хорошая камера, грамотно настроенный дисплей, и все это в сочетании с уже привычно мощной аппаратной платформой. Honor 8X и ASUS Zenfone Max Pro (M2) – конкуренты, безусловно, серьезные, но им придется подвинуться. Причем этому не помешает и официальная розничная цена, которая у предшественников была традиционно завышена, – в это раз она на удивление адекватна: 13 990 рублей за версию 3/32 Гбайт. К тому же на старте продаж (28 марта – 7 апреля) тем, кто купит Redmi Note 7 в официальном онлайн-магазине компании или в сети DNS, подарят браслет Mi Band 3 – необычная щедрость при продаже бюджетного смартфона. Но и это не все — ранние пташки, которые сумеют оформить заказ в первый день продаж с 10 до 13 часов, сделают это по специальной цене 10 990 рублей.
**Достоинства:** **Недостатки:** |
984,604 | Облачные хранилища для физических лиц: что выбрать и почему | Даже у тех, кто никогда специально не пытался обзавестись облачной памятью, скорее всего, есть несколько гигабайтов на разных серверах. Например, у обладателей смартфонов с ОС Android (а также у пользователей почты Gmail) по умолчанию есть 15 Гбайт в Google Drive. У владельцев ПК с Windows 8, 8.1 и 10 есть по меньшей мере 5 Гбайт в OneDrive. Есть гигабайты облачной памяти и у пользователей почты Mail.ru (8 Гбайт) или «Яндекс.Почты» (10 Гбайт). А так как у среднестатистического пользователя найдутся аккаунты практически во всех указанных сервисах, то без особых стараний такому пользователю доступно свыше 30 Гбайт бесплатной облачной памяти. При желании этот объем несложно увеличить в два или три раза, причем также совершенно бесплатно, — создав дополнительные аккаунты в этих же сервисах или зарегистрировавшись в других подобных хранилищах. Однако бывают ситуации, когда нужен большой объем памяти, а переключаться между несколькими разными сервисами неудобно.
Собственно, иметь один аккаунт с большим объемом места для хранения удобно во многих случаях. Облачные хранилища — довольно неплохой вариант для резервного копирования архивов или важных файлов, потому что серверы крупных ИТ-компаний хорошо защищены от различных аппаратных сбоев и взломов, а собственный внешний жесткий диск может потеряться или выйти из строя. Незаменимы облачные хранилища и в совместной работе над файлами удаленных друг от друга пользователей. Если приходится часто делиться файлами с друзьями и знакомыми (или с заказчиками — например, фотографу), то много места в облаке тоже не помешает. А еще иногда облачное хранилище — более надежное место для хранения секретной информации, чем физическая память (правда, не всегда и только в тщательно шифрованном виде).
Хранилища обладают разными характеристиками, поэтому то, что хорошо подходит для решения одной задачи (например, совместной работы), будет не совсем удачным для решения другой (резервного копирования ценной информации).
⇡#Характеристики облачных хранилищ
Если облачное хранилище нужно только в качестве файлообменника, то при выборе сервиса надо обратить внимание на бесплатный объем хранилища, тарифы и максимальный объем загружаемого файла (в некоторых сервисах есть такое ограничение). Это главные характеристики, но есть и другие, также влияющие на удобство.
Почти все облачные хранилища поддерживают предварительный просмотр файлов. Но список таких файлов может различаться. Некоторые сервисы могут показать документы, фотографии (самых разных типов), проиграть аудио- и видеофайлы, а другие предлагают только просмотр документов (или фотографий). Если пользователю нужно предварительно просматривать файлы, чтобы принять решение, скачивать их или нет, то при выборе хранилища необходимо обратить внимание на список поддерживаемых форматов.
Некоторые сервисы предлагают возможность редактировать офисные документы. Так, Google Drive интегрирован с офисным пакетом «Google Документы», «Яндекс.Диск» и «Облако@mail.ru» — с Microsoft Office Online и так далее. Многие хранилища поддерживают совместную работу над документами. При активной работе с документами важно выбрать именно то хранилище, которое интегрировано с подходящим офисным пакетом.
Для работы с хранилищами на разных устройствах можно использовать как веб-версию, так и клиенты, разработанные для различных операционных систем, которые поддерживают синхронизацию данных, — на устройстве пользователя создается папка, содержимое которой синхронизируется с облачным хранилищем. Такие приложения для распространенных ОС предлагают практически все рассматриваемые в статье сервисы. Но функциональность таких приложений может быть разной. Иногда они позволяют не хранить файлы на устройстве, а только в облаке (это удобно на смартфонах с небольшим объемом встроенной памяти). Если пользователю необходима синхронизация файлов или удобный доступ к облаку через приложение, то надо обязательно проверить, как работают клиенты для нужных ОС.
Есть еще специфические характеристики у некоторых сервисов. Например, ряд хранилищ ограничивают объем скачиваний в месяц. Некоторые сервисы предлагают услуги повышенной безопасности — шифруют файлы, так что открыть их можно только с помощью ключа, хранящегося на устройстве. Есть сервисы, которые поддерживают протокол WebDAV, что позволяет подключить облачное хранилище к ПК как сетевой диск.
Все рассматриваемые в статье облачные хранилища позволяют организовать совместный доступ к файлам и папкам.
Далее в статье мы дадим краткое описание нескольких облачных хранилищ, потом приведем сводную таблицу, а в конце сделаем выводы, какой сервис лучше всего подходит для той или иной цели.
Облачное хранилище отечественный IT-гигант представил в 2013 году. Пользователям, зарегистрировавшимся до 20 января 2014 года, 1 Тбайт места в облачном хранилище предоставлялось бесплатно. Далее компания предлагала бесплатно 100 Гбайт, потом объем сокращался, и в настоящее время новым пользователям бесплатно доступно всего 8 Гбайт облачной памяти. Кстати, у пользователей, имевших 1 Тбайт памяти, но не использовавших ее, бесплатный объем также был снижен до 8 Гбайт.
Веб-версия и мобильные приложения сервиса поддерживают просмотр фотографий, документов, проигрывают аудиофайлы и видеофайлы. Для редактирования документов, таблиц и презентаций предлагается пакет Microsoft Office Online. На платных тарифах доступна поддержка протокола WebDAV для совместной работы над файлами и подключения хранилища как сетевого диска, а объем загружаемого файла может достигать 32 Гбайт (на бесплатном тарифе — 2 Гбайт). Сервис позволяет создавать общие папки для нескольких пользователей.
В качестве приложения для ПК используется «Диск-О:». Это приложение отображает облако на ПК как сетевой диск, причем с файлами на этом диске можно будет работать и офлайн (изменения синхронизируются при подключении к Интернету). Мобильные приложения позволяют освободить место на смартфонах, отправляя, например, сделанные фотографии сразу в облачное хранилище.
Дополнительный объем памяти доступен по подписке (оплата помесячно и за год). Оформить подписку можно как через мобильное приложение (минимальный дополнительный пакет — 8 Гбайт, стоит 29 рублей в месяц или 290 рублей в год), так и через веб-версию (минимальный дополнительный пакет — 64 Гбайт, стоит 75 рублей в месяц или 749 рублей в год).
Услуги облачного хранилища «Яндекс.Диск» стали доступны пользователям в 2012 году. Вначале регистрация в сервисе была по приглашениям, но вскоре он стал доступен всем желающим.
Бесплатно пользователю доступно 10 Гбайт облачной памяти. На бесплатном тарифе при большом количестве скачиваний публичного файла (каком именно — официальный сайт не сообщает) «Яндекс» может ограничить скачивание на сутки. Иногда «Яндекс» проводит акции, которые позволяют увеличить бесплатный объем. Пользователь может дополнительно приобрести несколько пакетов по 100 Гбайт или по 1 Тбайт, перейдя на сервис «Диск Про». Стоимость 100 Гбайт — 80 рублей в месяц. Для подписчиков «Яндекс.Плюс» предусмотрена 30-процентная скидка на дополнительное место в «Диске Про».
Сервис поддерживает просмотр изображений, документов, архивов, книг, проигрывание видео- и аудиофайлов. Доступно редактирование документов через пакет Microsoft Office Online. Предусмотрена поддержка протокола WebDAV.
Общие папки, к которым пользователю предоставили доступ, не занимают место на его «Диске» (как например в Dropbox), а только на «Диске» их владельцев. Объем загружаемого файла может достигать 50 Гбайт. Правда, файлы объемом более 10 Гбайт сервис рекомендует загружать не через веб-версию, а через приложение.
Для фотографий и видео, сделанных на смартфоне, доступен безлимитный объем памяти. При включении этой опции фотографии загружаются в папку «Все фото» и не занимают объема на «Яндекс.Диске». Однако при включенном безлимите папка с фотографиями не будет синхронизироваться с приложением для ПК. Для этого необходимо специально создать для них отдельную папку.
Box — американское облачное хранилище, созданное в далеком 2005 году. Сначала сервис был расположен в доменной зоне .NET, а в 2011 году переехал в доменную зону .COM. Сервис русифицирован не полностью, так что иногда пользователю не помешает знание английского языка.
Бесплатно пользователям сервиса доступно 10 Гбайт памяти, при этом ограничение на размер файла составляет 250 Мбайт. Платный тариф для индивидуальных пользователей всего один — Personal Pro. На нем за 9 евро в месяц будет доступно всего 100 Гбайт памяти, а ограничение на размер загружаемого файла составляет 5 Гбайт. Зато почти все тарифы для бизнеса — с безлимитным объемом хранилища.
Облачное хранилище Box поддерживает редактирование документов через Microsoft Office Online, просмотр изображений, PDF и так далее. Все файлы на серверах хранятся в зашифрованном виде. В качестве дополнительной меры безопасности пользователь может установить на отдельные папки пароль. Сервисом поддерживается протокол WevDAV.
Хранилище предлагает возможность создания заметок, планов, списков дел и других простых документов через встроенный сервис Box Notes. Файлами, созданными при помощи этого сервиса, можно делиться с другими пользователями.
Прямо в веб-версии хранилища можно также создавать документы, таблицы Microsoft Office или Google Docs и далее редактировать их через соответствующие сервисы.
Dropbox — одно из старейших облачных хранилищ, созданное в 2007 году. Штаб-квартира компании находится в Сан-Франциско. Сервис изначально создавался именно как облачное хранилище. С помощью специальных приложений можно синхронизировать содержимое папок любых подключенных устройств с сервером Dropbox.
Бесплатный объем памяти уже долгое время остается одним и тем же и составляет всего 2 Гбайт. C 15 марта 2019 года для бесплатного тарифа было введено ограничение — теперь синхронизировать данные можно не более чем на трех устройствах. Платных тарифов для частных пользователей два — Dropbox Plus (1 Тбайт за $9,99/месяц) и Dropbox Professional (2 Тбайт за $19,99/месяц). На платных тарифах доступен автономный доступ к файлам, приоритетная техническая поддержка. На тарифе Professional доступна «умная» синхронизация, благодаря которой отдельные папки и файлы можно хранить только в облаке, освободив место на жестком диске.
Редактировать документы в облачном хранилище можно как через Microsoft Office Online, так и через пакет Dropbox Paper. Протокол WebDAV сервис не поддерживает. Размер загружаемых в Dropbox файлов не ограничен, но через веб-версию нельзя загрузить файл размером более 50 Гбайт.
Интересная дополнительная возможность Dropbox — подключение через API сторонних сервисов. Например, можно связать хранилище с сервисом SoundCloud и сохранять понравившиеся треки на свой диск.
В 2012 году хакерам удалось взломать сервис и получить доступ к электронным адресам и паролям 68 миллионов пользователей (это было почти две трети пользователей). Факт утечки компания признала только в 2016 году и предложила сменить пароль тем, кто не менял его с 2012 года.
Облачное хранилище «Google Диск» было создано в 2012 году. В конце 2018 года было объявлено о переименовании сервиса в Google One, но пока на официальном сайте на русском языке сохраняется старое название.
Облачное хранилище «Google Диск», пожалуй, является самым используемым в мире, потому что доступ к нему автоматически получают все пользователи устройств с Android, имеющие аккаунт Google (на этих устройствах оно является системным).
Бесплатно пользователям предоставляется 15 Гбайт облачной памяти. Впрочем, этот объем занимают также вложения от всех писем в Gmail и снимки из «Google Фото». Дополнительные 100 Гбайт обойдутся пользователю в 139 рублей в месяц. Частное лицо может приобрести до 30 Тбайт облачной памяти. На платных тарифах предусмотрены помощь экспертов и семейный доступ к файлам.
Сервис интегрирован с офисным пакетом «Google Документы», поддерживает просмотр PDF-файлов, изображений, видео, архивов, файлов Adobe Photoshop и Adobe Illustrator и так далее. Возможна организация совместного доступа к файлам и папкам. К отдельным файлам можно открыть офлайн-доступ, что позволяет редактировать их без подключения к Интернету.
Ограничение по размеру загружаемого файла — не более 5 Тбайт, если этот файл не предназначен для открытия с помощью сервиса Google.
Встроенной поддержки протокола WebDAV в «Google Диске» нет.
Облачное хранилище iCloud предназначено для пользователей устройств Apple (Mac, iPhone, iPad). На сайте можно также скачать клиент для Windows, но для его использования (равно как и для использования веб-версии) все равно необходимо иметь Apple ID.
Хранилище iCloud стало доступным для пользователей в 2011 году. Вначале оно использовалось для синхронизации данных между устройствами и резервного копирования, но в 2014 году был представлен сервис iCloud Drive — традиционное облачное хранилище для любых файлов.
Через iCloud синхронизируются контакты пользователя устройств Apple, календарь, фотографии и так далее. С помощью сервиса можно найти и заблокировать свои iPhone или iPad.
Бесплатно пользователям iCloud предоставляется 5 Гбайт облачной памяти. При необходимости можно перейти на один из трех платных тарифов — 50 Гбайт за 59 рублей в месяц, 200 Гбайт за 149 рублей в месяц и 2 Тбайт за 599 рублей в месяц. Тарифы на 200 Гбайт и 2 Тбайт можно использовать совместно с другими членами семьи.
Поддержки протокола WebDAV в iCloud Drive нет. Просмотр и редактирование файлов в веб-версии не предусмотрены.
Сервис был запущен в 2006 году как файлообменник, но впоследствие превратился в классическое облачное хранилище. Как и сервис Box, MediaFire русифицирован не полностью, так что для полноценного использования хранилища необходимо знание азов английского языка.
Особенность сервиса — отсутствие официального клиента для ПК. Причем ранее сервис предлагал такое приложение, но с 2016 года оно прекратило свою работу. Так что удобной синхронизации файлов между компьютером и сервером у MediaFire нет.
После регистрации пользователю будет доступно 10 Гбайт облачной памяти, объем которой можно бесплатно увеличить до 50 Гбайт, выполняя определенные действия (установка мобильного клиента, приглашение новых пользователей). При скачивании файла с бесплатного аккаунта пользователь должен будет мириться с рекламой. Платный тариф для индивидуального использования один — за $7,50 в месяц пользователю будет доступен 1 Тбайт памяти. На платном тарифе возможна защита файлов паролями и генерация одноразовых ссылок на файлы.
При тестировании в веб-версии удалось просмотреть только фотографию, для открытия документов система требовала загрузить файл. Редактирование документов не предусмотрено, протокол WebDAV не поддерживается.
Ограничение на размер загружаемого файла — 20 Гбайт.
Облачное хранилище Mega было запущено в 2013 году новозеландской компанией. Бесплатно пользователю предоставляется до 50 Гбайт памяти (часть из этого объема можно получить в виде бонусов за определенные действия). Платные тарифы предлагают от 200 Гбайт до 8 Тбайт места на облачном хранилище.
Одна из особенностей хранилища — на всех тарифах есть ограничение на объем передачи файлов в месяц (от 1 до 16 Тбайт). Другой особенностью хранилища Mega является сквозное шифрование всех данных, включенное для всех пользователей. В связи с этим просмотра файлов и поддержки редактирования документов в облачном хранилище не предусмотрено, так как сервер не может прочитать зашифрованные файлы. С другой стороны, с шифрованием хранить файлы безопаснее.
Протокол WebDAV не поддерживается. Зато облачное хранилище можно интегрировать с бесплатным почтовым клиентом Mozilla Thunderbird и отправлять большие файлы через Mega.
В прошлом году сообщалось об утечке данных 15,5 тысяч пользователей Mega — их электронных адресов, паролей и списков файлов. Компания уверяла, что утечка произошла не из-за взлома и что учетные данные были добыты путем подстановки логинов и паролей от ранее похищенных учетных записей с других ресурсов (мораль: не используйте одну и ту же связку логина и пароля дважды).
Облачное хранилище OneDrive было создано в 2007 году под названием SkyDrive, но переименовано в 2014 году в связи с иском британской телевещательной компании. Аккаунт OneDrive по умолчанию есть у всех пользователей Windows 8, 8.1 и 10. При установке или первом запуске системы Microsoft предлагает настроить автоматическую синхронизацию документов с облачным хранилищем (эту возможность можно отключить или включить и позже). Так что c этим сервисом часть пользователей Windows работает, даже этого не подозревая.
В силу интеграции OneDrive с последними версиями Windows синхронизация данных между компьютером и сервером не требует особых настроек, соответствующая папка уже присутствует в «Проводнике» после установки системы.
Бесплатный объем облачной памяти — всего 5 Гбайт. Пользователь может приобрести дополнительно 50 Гбайт для хранения файлов либо получить 1 Тбайт в пакете Microsoft Office 365. При использовании этого пакета пользователю также доступна генерация ссылок на файлы с определенным сроком жизни. Через веб-версию в хранилище можно загрузить файл размером до 15 Гбайт.
Документы, загруженные в облако, можно бесплатно редактировать в пакете Microsoft Office Online. Доступен просмотр изображений, документов и других файлов. Облачное хранилище можно подключить к ПК как сетевой диск по протоколу WebDAV.
Облачное хранилище pCloud принадлежит швейцарской компании и было создано в 2013 году. На сегодняшний день сервисом пользуется свыше 8 миллионов человек. Бесплатно зарегистрированному пользователю предлагается 10 Гбайт памяти, но бонусом можно получить еще 10 Гбайт. Платных тарифов два — премиум (500 Гбайт за 3,99 евро в месяц) и премиум плюс (2 Тбайт за 7,99 евро в месяц). Особенность сервиса — у пользователя есть возможность выкупить место в облаке навсегда (если точнее — на 99 лет: разработчики pCloud считают, что больше вряд ли кто-то проживет). Так, за 175 евро можно приобрести 500 Гбайт, а за 350 евро — 2 Тбайт. Еще один вариант лицензии — покупка места для всей семьи. Приобретая навсегда 2 Тбайт, пользователь может разделить этот объем между членами семьи, причем каждый из них получит свое личное, конфиденциальное пространство.
Облачное хранилище предлагает функцию pCloud Crypto, с помощью которой можно зашифровать файлы, помещенные в специальную папку. По заявлениям разработчиков, зашифрованные файлы не смогут открыть даже администраторы сервиса, так как ключ к шифрованию будет храниться у пользователя. Сервис pCloud Crypto требует отдельной оплаты.
Доступными для просмотра являются изображения, документы, электронные книги FB2, архивы RAR и ZIP, которые можно распаковывать прямо в облаке. Сервис также проигрывает аудио- и видеофайлы. Редактирование документов в облачном хранилище не поддерживается. Нельзя также подключить хранилище к ПК как сетевой диск по протоколу WebDAV.
Максимальный размер скачиваемых файлов не ограничен. К папкам и файлам, как и во всех других рассмотренных хранилищах, пользователи могут получить совместный доступ.
|
Название сервиса |
Поддержи-ваемые платформы |
Бесплатный объем |
Тарифы |
Поддержка WebDAV |
Интеграция с офисным пакетом |
Просмотр файлов |
Сквозное шифрование |
Особые ограничения
|
«Облако» от Mail.ru |Windows, MacOS, iOS, Android, веб-версия
|8 Гбайт
|64 Гбайт за 75 руб./месяц
|Есть на платных тарифах
|Microsoft Office Online
|Есть
|Нет
|Объем загружаемого файла на платном тарифе – до 32 Гбайт, на бесплатном – до 2 Гбайт
|128 Гбайт за 149 руб./месяц
|256 Гбайт за 259 руб./месяц
|512 Гбайт за 379 руб./месяц
|1 Тбайт за 699 руб./месяц
|2 Тбайт за 1 390 руб./месяц
|4 Тбайт за 2 690 руб./месяц
|
«Яндекс.Диск» |Windows, MacOS, Linux, iOS, Android, веб-версия
|10 Гбайт
|100 Гбайт за 80 руб./месяц
|Есть
|Microsoft Office Online
|Есть
|Нет
|Размер загружаемого файла – не более 50 Гбайт
|1 Тбайт за 200 руб./месяц
|
Box |Windows, MacOS, iOS, Android, веб-версия
|10 Гбайт
|100 Гбайт за 654 руб./месяц
|Есть
|Microsoft Office Online, Google Docs
|Есть
|Есть
|Максимальный размер файла на бесплатном тарифе – 250 Мбайт, на платном – 5 Гбайт
|
Dropbox |Windows, MacOS, Linux, iOS, Android, веб-версия
|2 Гбайт
|1 Тбайт за 637 руб./месяц
|Нет
|Microsoft Office Online, Dropbox Paper
|Есть
|Нет
|На бесплатном тарифе можно синхронизировать только три устройства
|2 Тбайт за 1 275 руб./месяц
|
«Google Диск» |Windows, MacOS, iOS, Android, веб-версия
|15 Гбайт
|100 Гбайт за 139 руб./месяц
|Нет
|Google Docs
|Есть
|Нет
|Размер загружаемого файла – не более 5 Тбайт
|200 Гбайт за 219 руб./месяц
|2 Тбайт за 699 руб./месяц
|10 Тбайт за 6 990 руб./месяц
|20 Тбайт за 13 990 руб./месяц
|30 Тбайт за 20 990 руб./месяц
|
iCloud |Windows, MacOS, iOS, веб-версия
|5 Гбайт
|50 Гбайт за 59 руб./месяц
|Нет
|Нет
|Нет
|Нет
|Нет данных
|200 Гбайт за 149 руб./месяц
|2 Тбайт за 599 руб./месяц
|
MediaFire |iOS, Android, веб-версия
|10 Гбайт, можно увеличить до 50 Гбайт
|1 Тбайт за 478 руб./месяц
|Нет
|Нет
|Ограниченный
|Нет
|Размер загружаемого файла — не более 20 Гбайт
|
Mega |Windows, MacOS, Linux, iOS, Android, веб-версия
|50 Гбайт
|200 Гбайт за 363 руб./месяц
|Нет
|Нет
|Нет
|Есть, для всех файлов
|Ограничение на объем передачи файлов в месяц – от 1 до 16 Тбайт в зависимости от тарифа
|1 Тбайт за 726 руб./месяц
|4 Тбайт за 1 453 руб./месяц
|8 Тбайт за 2 181 руб./месяц
|
OneDrive |Windows, MacOS, iOS, Android, веб-версия
|5 Гбайт
|При подготовке статьи цены на тарифы на официальном сайте не загружались
|Есть, но требуется ручная настройка
|Microsoft Office Online, Microsoft Office 365
|Есть
|Нет
|Размер загружаемого файла в веб-версии – 15 Гбайт
|
pCloud |Windows, MacOS, Linux, iOS, Android, веб-версия
|10 Гбайт
|500 Гбайт за 290 руб./месяц
|Нет
|Нет
|Есть
|Есть как дополни-тельная услуга
|Ограничение трафика на скачивание по публичной ссылке: в бесплатной версии – 50 Гбайт в месяц, в платных – от 500 Гбайт в месяц
|2 Тбайт за 581 руб./месяц
|500 Гбайт на 99 лет за 12 724 руб
|2 Тбайт на 99 лет за 25 449 руб
*Все цены для сравнения указаны в рублях по курсу на 21.03.2019.*
Смоделируем несколько ситуаций и на основе данных из таблицы и описания сервисов подберем наиболее удачные варианты облачного хранилища.
**Если нужно дополнительное место для рассылки файлов по почте**
Если у пользователя заканчивается бесплатное место в облачном хранилище почтового сервера (например, на «Яндекс.Диске»), и при этом он отправляет файлов не слишком много, то в большинстве случаев будет достаточно перейти на самый дешевый тариф в том хранилище, с которым связан почтовый сервер. Для пользователей «Яндекс.Почты» — это «Яндекс.Диск», для Gmail — «Google Диск», для Mail.ru — «Облако» от Mail.ru, для Outlook — OneDrive. Пытаться использовать другие облачные хранилища, на которых еще есть бесплатное место, не всегда удобно — нужно загрузить файл на сервер, потом сформировать ссылку, вложить ее в письмо и только потом отправить. А связанное с почтовым сервером хранилище позволяет вкладывать большие файлы в письмо практически одним кликом.
Однако если минимального платного объема не хватает и нужно, скажем, не менее 1 Тбайт облачной памяти, то можно найти более интересные по цене варианты, чем предлагает связанное с почтовым сервером хранилище.
⇡#Если нужен большой объем хранилища (1 Тбайт и больше)
Согласно «Таблице 1», самый выгодный тариф на объем 1 Тбайт предлагает «Яндекс.Диск» — всего 200 рублей в месяц. Причем при оплате за год эта сумма уменьшиться до 167 рублей в месяц. А так как сервис позволяет приобрести несколько пакетов по 1 Тбайт, то он оказывается дешевле вне зависимости от количества терабайт, которое вам нужно. Единственное исключение — для пользователей Microsoft Office 365: они в рамках подписки получают 1 Тбайт памяти в OneDrive, и если им этого места достаточно, то им и не нужно приобретать дополнительное хранилище на другом сервисе.
Еще один интересный вариант — приобретение постоянной лицензии pCloud. За 25,5 тысячи рублей можно приобрести 2 Тбайт на 99 лет. Эта лицензия будет стоить столько же, сколько годовая подписка на «Яндекс.Диск» (если стоимость окажется постоянной) в течение 13 лет. Кроме того, приобретенные в pCloud 2 Тбайт можно разделить между членами семьи. Однако нужно помнить, что в pCloud есть ограничение на количество скачиваний файлов по публичной ссылке, а в платных тарифах «Яндекс.Диска» такого ограничения нет. Так что если пользователь планирует часто делиться ссылками на файлы, то лучше все-таки подписаться на «Яндекс.Диск».
⇡#Если нужно защищенное хранилище с шифрованием файлов
Для тех, кто не хотел бы, чтобы файлы на облачном хранилище мог кто-то прочитать (даже администраторы серверов), свои услуги предлагают Mega и pCloud. В Mega зашифрованы абсолютно все файлы. Если пользователь забудет пароль, то восстановить его можно будет только при помощи мастер-ключа (формируется в момент создания хранилища), а если он утерян, то доступ к своим файлам получить не удастся никогда.
При запуске хранилища Mega эксперты критиковали алгоритмы шифрования разработчиков, указывая, что в отдельных случаях можно перехватить ключи шифрования. Однако сообщений о взломе хранилища пока не было.
Подобное шифрование предлагает также облачное хранилище pCloud в рамках подписки на услугу pCloud Crypto. Только в хранилище будут зашифрованы не все файлы, а те, которые помещены в специальную папку. И за шифрование файлов придется платить дополнительно. По заявлениям разработчиков, к зашифрованным файлам не могут получить доступ даже администраторы серверов.
⇡#Если нужно хранилище для совместной работы с другими пользователями
Для совместной работы большой команды лучше использовать бизнес-тарифы облачных хранилищ (в рамках данной статьи они не рассматривались). Но если пользователям не нужен большой объем хранилища и бизнес-инструменты, то можно обойтись и сервисами для индивидуальных пользователей.
Лучше всего для совместной работы подходят хранилища, которые тесно интегрированы с сервисами редактирования документов и широко используются для такой работы. Среди рассмотренных хранилищ для этой цели можно рекомендовать «Google Диск» и OneDrive (хотя и в «Яндекс.Диске», и в «Облаке» от Mail.ru тоже можно совместно редактировать документы).
Компания Google, пожалуй, одной из первых предложила возможность совместной работы над документами через Google Docs, к тому же этот сервис тесно интегрирован с Gmail и «Google Диском», так что он получил, наверное, самое широкое распространение среди тех, кто работает с документами онлайн. Если пользователь планирует присоединиться к таким работникам, то логичнее всего работать через «Google Диск».
Вместе с тем Microsoft Office — самый популярный офисный пакет в мире. Кроме того, в рамках подписки на Microsoft Office 365 пользователю доступен целый терабайт в OneDrive. Поэтому обладателям этой лицензии проще всего в работе использовать облачное хранилище от Microsoft.
Итак, для отправки файлов по почте лучше всего использовать облачное хранилище, связанное с почтовым сервером. Если нужен большой объем памяти, то выгоднее приобрести подписку «Яндекс.Диска», а в качестве постоянной лицензии — 2 Тбайт от pCloud. В качестве защищенных облачных хранилищ можно использовать Mega или pCloud, а для совместной работы — «Google Диск» или OneDrive. |
984,619 | Baba Is You — толкай, меняй, голову ломай. Рецензия | |
Жанр |Головоломка
|
Издатель |Hempuli
|
Разработчик |Hempuli
|
Системные требования |Процессор Intel Celeron 440 2,0 ГГц/AMD Athlon 64 X2 3800+ 2,0 ГГц, 1 Гбайт ОЗУ, видеокарта с 128 Мбайт памяти и поддержкой DirectX 9, например NVIDIA GeForce 6600 GT/ATI Radeon X1300, 200 Мбайт на жестком диске, интернет-соединение и учетная запись в Steam
|
Дата выхода |13 марта 2019 года
|
Возрастной ценз |от 3 лет
|
Платформы |PC, Nintendo Switch
*Игра протестирована на PC*
Выстраивать игру вокруг одной механики, со временем дополняя ее, куда сложнее, чем запихивать в проект все и отовсюду. Вдобавок с минимализмом нужно еще и не переборщить, а то получится, что идеи хватает всего на пару-тройку часов, как в занимательной, но быстро надоедающей Minit. А уж среди головоломок никто не мог подобраться к Джонатану Блоу с его меланхоличной The Witness, использующей простую задумку с рисованием линий. Не мог до выхода Baba Is You — удивительного логичного пазла, полного зубодробительных загадок и желания поставить с ног на голову правила реального мира.
В основе творения финского разработчика Арви Тейкари (Arvi Teikari) лежит концепция взаимодействия с окружающей реальностью через условия. Каждый из уровней работает по заданным для него правилам вроде Door is Shut («дверь — закрыта»), Rock is Push («камень — толкать») или же вынесенного в заголовок Baba Is You («Баба — это ты»). Последнее, например, говорит о том, что вы управляете забавным зверьком с таким именем. Причем само уравнение состоит из трех независимых блоков: «Baba», «Is» и «You» соответственно. Вот тут-то и начинается веселье.
Стоит передвинуть одну из переменных, сделав формулу неактивной, как сразу же теряешь контроль над персонажем. Почему? Так игра же не знает, кто ты! Так-так-так, а если превратить себя в камень, подставив Rock вместо Baba? Оп, сработало. Хорошо, хорошо, а вот на этом уровне я не могу добраться до флага, потому что он окружен стеной… Хм-м-м-м, поставить этот блок сюда, этот — туда. Вжух, мне теперь и не нужно никуда перебираться, я стал сразу всеми стенами на уровне и могу ими ходить! Зрелище настолько же шикарное, насколько безумно звучит описание.
Мозг в первый час отчаянно сопротивляется таким выкрутасам и пытается подходить к игре, цепляясь за правила из реального мира. Однако это как раз таки стоит отбросить в первую очередь — Baba Is You заставляет мыслить куда шире, интереснее, заходить с совершенно неожиданной стороны. Через какое-то время начинаешь оценивать уровни не как набор неказистых картинок, а как список уравнений и прикидываешь на ходу, как бы так их переписать, чтобы добраться до победного предмета. Или стать им самому. Или притащить его к себе, контролируя одновременно и зверька, и парочку камней на другой стороне экрана.
Забавно, что чаще всего решение оказывается до элегантного простым и логичным, но далеко не тривиальным. Какие-то блоки на уровне будут специально направлять не в ту сторону, намеренно запутывать, предлагать избыточные возможности. Если вы склонны к усложнению простых вещей, то попасться на крючок и пойти не в ту сторону в игре будет проще простого. Тем интереснее пытаться понять, что действительно важно, а что служит для отвлечения внимания.
Естественно, со временем Baba Is You становится все сложнее. Появляются модификаторы вроде «
*AND*» («Кеке *и* Баба — это ты») и « *HAS*» («В ящике *есть* ключ»). Роботов и призраков при помощи правил можно заставить двигаться без вашего участия и так далее и тому подобное. Однако основная идея остается неизменной — нужно изменить окружение, просто толкая имеющиеся блоки перед собой. Причем порой приходится делать это на ограниченном пространстве, когда нужно думать не только об изменении условий, но и в каком порядке перемещать составляющие, чтобы ни одна из них случайно не залезла в угол, из которого ее уже не вытащить. В такие моменты происходящее вообще похоже на удивительную смесь визуального программирования и логистики Sokoban.
Хотя больше всего Baba Is You удивляет другим. Когда мозг уже взорван, а игра закрыта, она все равно остается с тобой. Продолжаешь искать ключ к задачке, но уже прокручивая варианты в своей голове. За счет простоты исполнения и предельной логичности правил проект не привязан к графической оболочке вообще, поэтому немалое количество загадок мне удалось расколоть не перед монитором, а занимаясь посторонними делами. Озарение приходило внезапно, оставалось лишь сесть за компьютер и проверить работоспособность придуманного решения.
Единственное, к чему можно придраться на этом головоломном празднике, — не совсем продуманная кривая сложности. Появляются ситуации, когда с начальными уровнями какой-то зоны приходится бодаться пару дней, а финальные локации на этой же территории проходятся влет. Такое ощущение, будто бы их накидывали случайным образом. Правда, никакого дискомфорта это не вызывает, тем более для продвижения вперед никто не заставляет зачищать все на 100 %, а за счет нескольких одновременно доступных для прохождения уровней можно постоянно менять обстановку, прыгая от одной загадки к совершенно другой. Благодаря этому игра не надоедает, а постоянная смена правил хоть немного защищает голову от перегрева.
Все гениальное просто, что в очередной раз доказала Baba Is You. Она не за красивые глаза выиграла в категориях «Лучшая студенческая игра» и «Достижения в дизайне» на прошлогоднем фестивале независимых игр. Игру можно запустить на пять минут с целью попробовать неожиданно пришедшее в голову решение, а можно потратить несколько часов, пробиваясь через замечательные головоломки, ставящие с ног на голову представление о взаимодействии с виртуальным миром. Здесь нет красивой графики The Witness, но работают обе игры по схожему принципу — заставляют вынуть мозг из головы, повертеть его так и сяк, а потом попробовать вернуть на место. Вдруг хотя бы так получится подобрать нестандартный ключик к необычной задаче! И кажется, нет лучшего чувства в мире, чем радость долгожданной победы после сотен экспериментов с правилами отдельно взятого уровня.
*Саркастичное примечание редакции: эта рецензия куплена богатыми финскими разработчиками, которые решили не вкладывать деньги в графику, а направить средства на хорошие отзывы в прессе* :р **Достоинства**: **Недостатки**:
|
|
Простенько и даже корявенько, но картинка явно была не в приоритете.
|
|
Музыкальный ряд не отвлекает, но и не вызывает особых впечатлений. Удобнее поставить что-нибудь свое и отправиться пересобирать этот мир.
|
|
Геймплей в чистом виде. Попробуйте-ка додуматься, как перепрограммировать уровень для решения задачи из доступных на локации переменных, при этом учитывая свободное пространство вокруг себя.
|
|
Не предусмотрена.
|
|
Baba Is You — элегантная головоломка, которая минимальным количеством средств добивается максимального результата. Простая с виду, но очень глубокая внутри.
*Оценка: * *10/* *10* **Видео**: |
984,627 | Тестирование трассировки лучей и DLSS в Shadow of the Tomb Raider | Прошло уже немало времени с тех пор, как на рынке появились первые графические карты на чипах семейства Turing. В данный момент каталог «зеленых» ускорителей включает четыре модели, способных выполнять трассировку лучей в реальном времени, но NVIDIA не остановится на достигнутом — уже в середине апреля поддержку интерфейсов DXR и Vulkan RT обретут видеокарты серии GeForce GTX 16 и большинство ускорителей на чипах Pascal, начиная с GeForce GTX 1060 с объемом RAM 6 Гбайт. Вот только игры, уже использующие DXR или технологию DLSS, основанную на машинном обучении и тензорных ядрах архитектуры Turing, пока можно пересчитать по пальцам одной руки. А по пальцам другой — грядущие проекты с такими возможностями.
Слава первопроходцев уже досталась Battlefield V и Final Fantasy XV, а недавно прогремела Metro Exodus. Shadow of the Tomb Raider ушла на золото еще в сентябре прошлого года, и большинство поклонников серии не стали ждать, пока команда Eidos в сотрудничестве с Crystal Dynamics наделит игру поддержкой DXR и DLSS. Не стали ждать и мы, когда выпустили групповой тест видеокарт в Shadow of the Tomb Raider. Но вот появилось обещанное обновление, а значит — наша работа с этой игрой еще не окончена.
⇡#
**Трассировка лучей в примерах**
В августе прошлого года NVIDIA продемонстрировала впечатляющий отрезок из Shadow of the Tomb Raider, в котором трассировка лучей буквально преображает картинку. Но тем геймерам, которые не спешат в магазин за видеокартами нового поколения или отложили знакомство с игрой до недавнего патча с поддержкой DXR, лучше скорректировать свои ожидания. Ведь термин Ray Tracing в Shadow of the Tomb Raider с самого начала относился только к теням от объектов, находящихся в лучах прямых источников света.
Если учесть, что добрая часть приключений Лары Крофт проходит под землей, в Shadow of the Tomb Raider можно найти немало подобных сцен. Без DXR движок использует динамические карты теней (shadow maps) для рендеринга эффектов прямого освещения. Этот метод в какой-то мере похож на трассировку, так как карты теней формируются путем отдельной проекции сцены из точки обзора, совпадающей с источником света, но имеет известные недостатки. Так, карты теней не отличаются высокой точностью, работают только с точечными источниками света и не формируют силуэты с мягкими очертаниями без дополнительной операции краевого размытия. А с целью экономии вычислительных ресурсов в карты теней, как правило, помещают лишь избранные объекты сцены. Трассировка лучей лишена этих издержек, и в подходящих ситуациях Shadow of the Tomb Raider меняется чрезвычайно сильно — тем, кто уже прошел игру, стоит повторить путешествие, чтобы увидеть это своими глазами.
Но увы, влияние DXR в Shadow of the Tomb Raider ограничивается прямыми источниками света. Отраженный свет по-прежнему реализован статичными методами, «запеченными» (baked) в редакторе карт, с динамической надстройкой в виде Ambient Occlusion. После Metro Exodus, где разработчики перевели всю модель глобального освещения на трассировку лучей, с половинчатым подходом Shadow of the Tomb Raider уже трудно смириться. Кроме того, по скриншотам легко заметить, как сильно меняется глубина теней в зависимости от настроек DXR. В иных сценах трудно увидеть разницу между трассировкой на уровне Medium и стандартными картами теней. Вдобавок, даже на высоких уровнях качества DXR бросаются в глаза ступенчатые силуэты как следствие низкой плотности лучей.
⇡#
**Качество изображения: DLSS vs TAA**
Трассировка лучей, даже в ограниченном формате, как это сделано в Shadow of the Tomb Raider, сильно влияет на быстродействие GPU, а ведь это и без того весьма требовательный проект при высоких настройках качества графики. Чтобы компенсировать неминуемый удар по частоте смены кадров, одновременно с DXR разработчики игры внедрили поддержку DLSS. Мы уже не раз писали о проприетарной технологии NVIDIA, которая позволяет GPU выполнять рендеринг в сниженном разрешении, а затем масштабировать кадр с помощью нейронной сети на тензорных ядрах архитектуры Turing. Однако практический опыт, который дали Battlefield V, Final Fantasy XV и Metro Exodus, уже разрушил все иллюзии по поводу качества DLSS на первоначальном этапе ее распространения. Из трех игр-первопроходцев только в Final Fantasy XV продукт работы DLSS сопоставим с прямым рендерингом в целевом разрешении, да и то с массой оговорок.
Надо ли говорить, что от DLSS в Shadow of the Tomb Raider мы не ожидали выдающихся результатов? Однако игра преподнесла нам приятный сюрприз. В нескольких кадрах, которые мы сняли с применением DLSS и TAA — широко распространенного и нетребовательного метода полноэкранного сглаживания, — на первый взгляд трудно заметить какую-либо разницу в четкости. Особенно хорошо DLSS справляется с деталями текстур на крупных поверхностях. Даже в таких объектах, как листва растений и волосы, практически нет размытия. Для сравнения приведем аналогичные скриншоты, сделанные в режиме 1440p и просто увеличенные до целевого разрешения 2160p силами игрового движка (для этого нужно отключить опцию эксклюзивного полноэкранного режима).
Впрочем, мы уже успели убедиться, что во всех играх, использующих DLSS, не найти двух одинаковых нейросетей. У алгоритма, свойственного Shadow of the Tomb Raider, есть странности, с которыми мы не сталкивались раньше. DLSS не по зубам элементы изображения с массой тонких линий, которые, по всей видимости, наложены поверх прозрачной текстуры — велосипедные спицы, плющ на стенах здания и тому подобное. Эти участки кадра выглядят так, будто DLSS даже не пытается увеличить разрешение.
Кроме того, в особенно сложных сценах (например, в глубине джунглей) нейросеть подчас дезориентируется и начинает размывать объекты, которые в иных случаях обрабатывает с эталонной четкостью (как, например, одежду и волосы главной героини). При резком движении камеры возникают ложные паттерны на крышах из гофрированного металла (впрочем, в движении их как раз-таки невозможно разглядеть). И наконец, DLSS заметно усиливает общий контраст вне зависимости от содержания кадра. Но это уже придирки. В общей сложности Shadow of the Tomb Raider достигла лучших результатов из четырех игр с поддержкой DLSS — смело рекомендуем включать эту опцию, особенно при разрешении 2160p в комбинации с DXR.
|
|
|
|
|
|
|
|
|
|
|
|
⇡#
**Тестовый стенд, методика тестирования**
|Тестовый стенд
|CPU
|Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
|Материнская плата
|ASUS MAXIMUS XI APEX
|Оперативная память
|G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 Гбайт (3200 МГц, CL14)
|ПЗУ
|Intel SSD 760p, 1024 Гбайт
|Блок питания
|Corsair AX1200i, 1200 Вт
|Система охлаждения CPU
|Corsair Hydro Series H115i
|Корпус
|CoolerMaster Test Bench V1.0
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|ПО для GPU AMD
|Все видеокарты
|AMD Radeon Software Adrenalin 2019 Edition 19.3.2
|ПО для GPU NVIDIA
|Все видеокарты
|NVIDIA GeForce Game Ready Driver 419.35
Тестирование производительности выполнено с помощью встроенного бенчмарка Shadow of the Tomb Raider с максимальными значениями всех графических опций (за исключением полноэкранного сглаживания и DXR, которые мы варьируем в тестах). Показатели средней и минимальной кадровых частот выводятся из массива времени рендеринга индивидуальных кадров, который игра записывает в файл результатов.
Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени рендеринга кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел берется значение, соответствующее 1-му процентилю распределения.
⇡#
**Результаты тестирования: трассировка лучей**
Активация DXR со средним (а фактически, минимальным в диапазоне настроек Shadow of the Tomb Raider) качеством трассировки лучей не так сильно влияет на быстродействие, как в Metro Exodus и тем более Battlefield V. Старшие видеокарты семейства GeForce RTX (2070, 2080 и 2080 Ti) теряют от 13 до 18 % кадровой частоты вне зависимости от целевого разрешения, и только на GeForce RTX 2060 цена трассировки лучей достигает 22 % FPS в режиме 2160p. Но стоит напомнить, что визуальный эффект при среднем качестве DXR не слишком отличается от того, что позволяют увидеть стандартные карты теней, а добрая часть системы освещения в Shadow of the Tomb Raider в любом случае реализована статичными методами.
На высших уровнях интенсивности Ray Tracing вызывает серьезное падение быстродействия. Так, при качестве High частота смены кадров снижается на долю от 37 до 44 %, а при качестве Ultra — на 40–48 %. Такая нагрузка опять-таки особенно тяжела для GeForce RTX 2060 в режиме 2160p.
Если рассуждать в абсолютных величинах, то при разрешении 1080p ресурсов GeForce RTX 2070 хватает для того, чтобы поддерживать средний FPS выше 60 вне зависимости от качества трассированных теней, а владельцам RTX 2060 лучше ограничиться настройками Medium или High. В режиме 1440p младший из «полноценных» Тьюрингов неминуемо погружается в зону ниже 60 FPS, и только GeForce RTX 2080 Ti без оговорок подходит для DXR на уровне Ultra. И наконец, в 4К ни одна видеокарта не достигла 60 FPS даже с минимальным качеством трассировки лучей (да и вовсе без трассировки тоже).
|1920 × 1080
|DXR Off
|DXR Medium
|DXR High
|DXR Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-14%
|-38%
|-40%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-14%
|-40%
|-42%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-13%
|-38%
|-40%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-14%
|-40%
|-43%
|2560 × 1440
|RT Off
|DXR Medium
|DXR High
|DXR Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-14%
|-37%
|-39%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-15%
|-39%
|-41%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-15%
|-39%
|-41%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-17%
|-39%
|-43%
|3840 × 2160
|RT Off
|DXR Medium
|DXR High
|DXR Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-14%
|-37%
|-40%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-18%
|-40%
|-43%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-18%
|-40%
|-43%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-22%
|-44%
|-48%
Неспроста разработчики Shadow of the Tomb Raider внедрили поддержку DXR одновременно с DLSS — посмотрим, выручит ли процессоры Turing машинное обучение.
⇡#
**Результаты тестирования: **DLSS
Работа DLSS не сводится к простому растягиванию картинки, как это делает движок Shadow of the Tomb Raider в том случае, если отключен эксклюзивный полноэкранный режим. Для того чтобы пропустить изображение через тензорные ядра, GPU выделяет ресурсы прочих компонентов, за которые соревнуются сами процессы рендеринга, — диспетчеров инструкций, локальных кешей и прочего. Стало быть, DLSS сам по себе не является бесплатным решением с точки зрения быстродействия, а выигрыш в FPS положительно коррелирует с целевым разрешением экрана и отрицательно — с шириной конвейера GPU.
Не зря активировать DLSS в режиме 1080p позволяют только младшие ускорители серии GeForce RTX — 2060 и 2070. Да и то без DXR нейросеть увеличивает кадровую частоту не более, чем на 3 % (RTX 2070), а в случае RTX 2060 и вовсе снижает ее на 2 %. Даже в сочетании с DXR эффективность DLSS в 1080p не выходит за пределы 11 %.
|1920 × 1080
|DXR Off
|DXR Ultra
|TAA
|DLSS
|TAA
|DLSS
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|НД
|100%
|НД
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|НД
|100%
|НД
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|+3%
|100%
|+11%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|−2%
|100%
|+11%
При разрешении 1440p нейросеть по-прежнему не слишком полезна в отрыве от трассировки лучей: бонус к средней частоте смены кадров лежит в диапазоне от 12 до 15 %. Вот когда действует DXR с максимальным качеством теней, DLSS способен увеличить FPS на 20–28 %. Благодаря нейросети владельцы GeForce RTX 2080 и RTX 2080 Ti могут играть в Shadow of the Tomb Raider с бескомпромиссными настройками графики и средней кадровой частотой выше 60 FPS, но обладателям RTX 2060 и RTX 2070 придется умерить ожидания до 43–52 кадров/с.
|2560 × 1440
|DXR Off
|DXR Ultra
|TAA
|DLSS
|TAA
|DLSS
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|+13%
|100%
|+20%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+15%
|100%
|+23%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|+14%
|100%
|+26%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+12%
|100%
|+28%
Масштабирование из разрешения 1440p в целевой формат 4К — вот основной сценарий применения DLSS в Shadow of the Tomb Raider и других играх, совместимых с этой технологией. Даже без DXR нейросеть позволяет выиграть от 32 до 40 % частоты смены кадров, а в комбинации с трассировкой лучей максимальной интенсивности — от 50 до 67 %. За счет DLSS два старших «Тьюринга» пробили планку в 60 FPS без DXR, но с бескомпромиссными настройками трассировки ни один ускоритель по-прежнему не способен на такое достижение.
|3840 × 2160
|DXR Off
|DXR Ultra
|TAA
|DLSS
|TAA
|DLSS
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|+37%
|100%
|+50%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|+40%
|100%
|+57%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|+40%
|100%
|+58%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|+32%
|100%
|+67%
Когда NVIDIA представила видеокарты серии GeForce RTX в августе прошлого года, Shadow of the Tomb Raider наряду с Battlefield V была ярчайшим примером трассировки лучей (исключая Reflections и другие деморолики на основе Unreal Engine). Eidos и Crystal Dynamics потратили шесть месяцев после выхода игры, чтобы внедрить поддержку DXR, но результат, будем честны, не вполне соответствует ожиданиям, подпитанным долгим ожиданием обновления. Shadow of the Tomb Raider дословно выполнил обещание разработчиков — благодаря DXR появились трассированные тени в лучах прямых источников света, но движок по-прежнему использует статичные методы для имитации отраженного света. Лишь в редких ситуациях трассировка лучей так же сильно влияет на изображение Shadow of the Tomb Raider, как, например, в недавнем блокбастере Metro Exodus. Игре не помогает и тот факт, что при низком качестве эффектов DXR картинку трудно отличить от того, что дает чистая растеризация с динамическими картами теней. А при высоком качестве трассировки DXR уже бьет по быстродействию не меньше, чем в том же Metro Exodus. Но не будем слишком строгими к разработчикам: по меркам индустрии это уже не новая игра, и подобное внимание к преимущественно однопользовательскому проекту спустя полгода после его выхода можно только приветствовать.
Другая тема сегодняшнего обзора — это DLSS. По задумке NVIDIA, машинное обучение и тензорные ядра архитектуры Turing позволяют существенно увеличить быстродействие GPU при высоких разрешениях экрана, не теряя в качестве изображения. Мы уже не раз убеждались в том, как трудно довести нейросеть до ума в каждой отдельно взятой игре. Но если взять все существующие проекты с поддержкой DLSS (Battlefield V, Final Fantasy XV, Metro Exodus и Shadow of the Tomb Raider), то именно Tomb Raider на данный момент можно смело назвать лучшим примером воплощения этой технологии. Реализация DLSS здесь не лишена отдельных изъянов, но в иных аспектах обеспечивает эталонное качество изображения, которое трудно отличить от «честного» рендеринга в целевом разрешении экрана. В данном случае задержка обновления пошла игре на пользу — чем больше времени уходит на тренировку нейросети, тем лучше оказывается результат. |
984,652 | Материнская плата ASRock X299 OC Formula: созданная для разгона | В ассортименте любой известной компании, выпускающей материнские платы, сегодня очень много моделей, поддерживающих функции оверклокинга. Где-то — например, в элитных сериях ASUS ROG — таких функций неисчерпаемо много, как много и всяких других, а в более доступных версиях плат, напротив, разработчики добавили только самые базовые возможности разгона. Но существует весьма немногочисленная категория материнских плат, спроектированных специально для разгона. Они не перенасыщены «утяжеляющими» схемотехнику контроллерами, зачастую не поддерживают максимальный для конкретного набора логики объём оперативной памяти и не подсвечиваются сплошным «ковром» светодиодов по текстолиту. Зато они готовы выжать все соки из процессоров и предназначены для достижения предельных частот и установления рекордов.
Одну из таких плат более года назад выпустила компания ASRock при непосредственном участии легенды оверклокинга из Тайваня Ника Ши (Nick Shih). Ему принадлежали и принадлежат несколько рекордов разгона процессоров с использованием жидкого азота, а среди профессиональных оверклокеров он занимал первое место на протяжении 18 месяцев. Именно его рекомендации помогли разработчикам выпустить ASRock X299 OC Formula, и именно его профили экстремального разгона прошиты в BIOS данной платы.
Сегодня мы познакомимся с особенностями данной платы и изучим её оверклокерские возможности.
⇡#Технические характеристики и стоимость
|
ASRock X299 OC Formula
|
Поддерживаемые процессоры |Процессоры Intel Core X в исполнении LGA2066 (седьмое поколение микроархитектуры Core);
поддержка технологии Turbo Boost Max Technology 3.0;
поддержка технологии ASRock Hyper BCLK Engine III
|
Чипсет |Intel X299 Express
|
Подсистема памяти |4 × DIMM DDR4 небуферизованной памяти объёмом до 64 Гбайт;
четырёх- или двухканальный режим работы памяти (в зависимости от процессора);
поддержка модулей с частотой 4600(OC)/4500(OC)/4400(OC)/4266(OC)/4133(OC)/4000(OC)/
3866(OC)/3800(OC)/3733(OC)/3600(OC)/3200(OC)/2933(OC)/2800(OC)/2666(OC)/2400(OC)/
2133 МГц;
15-мкм позолоченные контакты в слотах памяти;
поддержка Intel XMP (Extreme Memory Profile) 2.0
|
Разъёмы для плат расширения |5 слотов PCI Express x16 3.0, режимы работы x16/x0/x0/x16/x8 или x8/x8/x8/x8/x8 с процессором с 44 линиями PCI-E; x16/x0/x0/x8/x4 или x8/x8/x0/x8/x4 с процессором с 28 линиями PCI-E; x16/x0/x0/x0/x4 или x8/x0/x0/x8/x4 с процессором с 16 линиями PCI-E;
1 слот PCI Express 3.0 x4;
1 слот PCI Express 2.0 x1;
15-мкм позолоченные контакты в слотах PCI-E1 и PCI-E5
|
Масштабируемость видеоподсистемы |NVIDIA Quad/4-way/3-way/2-way SLI Technology;
AMD Quad/4-way/3-way/2-way CrossFireX Technology
|
Интерфейсы накопителей |Чипсет Intel X299 Express:
– 6 × SATA 3, пропускная способность до 6 Гбит/с (поддержка RAID 0, RAID 1, RAID 5, RAID 10, Intel Optane Memory, Intel Rapid Storage 15, Intel Smart Response, NCQ, AHCI и Hot Plug);
– 2 × Ultra M.2 (PCI Express x4 Gen 3/SATA 3), пропускная способность до 32 Гбит/с (оба порта поддерживают типы накопителей 2230/2242/2260/2280/22110).
Контроллер ASMedia ASM1061:
– 2 × SATA 3, пропускная способность до 6 Гбит/с (поддержка NCQ, AHCI и Hot Plug)
|
Сетевой интерфейс |Два сетевых контроллера Intel Gigabit LAN I219V и I211AT (10/100/1000 Мбит);
защита от молнии и электростатических разрядов (Lightning/ESD Protection);
поддержка технологий Wake-On-LAN, Dual LAN with Teaming; энергосберегающего стандарта Ethernet 802.3az, PXE
|
Беспроводной сетевой интерфейс |Отсутствует
|
Bluetooth |Отсутствует
|
Аудиоподсистема |7.1-канальный HD-кодек Realtek ALC1220:
– соотношение «сигнал–шум» на линейном аудиовыходе 120 дБ, а на линейном входе – 113 дБ;
– японские аудиоконденсаторы Nichicon Fine Gold Series;
– встроенный усилитель для наушников TI NE5532 Premium с выводом на фронтальную панель (поддержка наушников с сопротивлением до 600 Ом);
– изоляция аудиозоны на текстолите платы;
– левый и правый аудиоканалы расположены в разных слоях печатной платы;
– защита от скачков напряжения;
– 15-мкм позолоченные аудиоразъёмы;
– поддержка Premium Blu-ray audio;
– поддержка технологий Surge Protection и Purity Sound 4;
– поддержка DTS Connect
|
Интерфейс USB |Чипсет Intel X299 Express:
– 6 портов USB 3.1 Gen1 (4 на задней панели, 2 подключаются к разъёму на плате);
– 6 портов USB 2.0 (2 на задней панели, 4 подключаются к двум разъёмам на плате).
Контроллер ASMedia ASM3142:
– 2 порта USB 3.1 Gen2 (Type-A и Type-C на задней панели);
Контроллер ASMedia ASM3142:
– 1 порт USB 3.1 Gen2 (Type-C для передней панели корпуса)
|
Разъёмы и кнопки на задней панели |2 порта USB 2.0 и комбинированный порт PS/2;
кнопка BIOS Flashback;
кнопка Clear CMOS;
2 порта USB 3.1 Gen1;
2 порта USB 3.1 Gen1 и сетевая LAN-розетка RJ-45;
2 порта USB 3.1 Gen2 (Type-A + Type-C) и сетевая LAN-розетка RJ-45;
оптический S/PDIF выход;
5 аудиоразъёмов (Rear Speaker / Central / Bass / Line in / Front Speaker / Microphone)
|
Внутренние разъёмы на системной плате |24-контактный разъём питания высокой плотности EATX;
8-контактный разъём питания высокой плотности ATX 12 В;
4-контактный разъём питания высокой плотности ATX 12 В;
6-контактный разъём питания высокой плотности ATX 12 В для видеокарт;
8 SATA 3;
2 M.2;
5 4-контактных разъёмов для корпусных/процессорных вентиляторов с поддержкой PWM;
2 разъёма RGB LED;
разъём USB 3.1 Gen1 для подключения двух портов;
2 разъёма USB 2.0 для подключения четырёх портов;
разъём USB 3.1 Gen2 для порта на передней панели корпуса;
коннектор TPM;
разъём аудио для передней панели;
разъём аудио Right Angle;
коннектор Virtual RAID On CPU;
коннекторы Power LED и Speaker;
коннектор Thunderbolt;
группа разъёмов для передней панели;
коннектор Voltage Control;
индикаторы Dr. Debug;
кнопка включения с подсветкой;
кнопка сброса (Reset);
кнопка перезагрузки (Retry);
кнопка Safe Boot;
кнопки Rapid OC;
кнопка Menu;
переключатели PCIe ON/OFF;
Post Status Checker (PSC);
переключатель Slow Mode;
переключатель LN2 Mode;
коннектор BIOS B Select
|
BIOS |2 × 128 Мбит AMI UEFI BIOS с мультиязычной графической оболочкой (SD/HD/Full HD);
поддержка PnP, DMI 3.0; WfM 2.0, SM BIOS 3.0, ACPI 6.1;
поддержка технологии Secure Backup UEFI
|
Фирменные функции, технологии и эксклюзивные особенности |
OC Formula Power Kit:
– 13 Phase CPU Power design + 2 Phase Memory Power design;
– Digi Power (CPU and Memory);
– Dr. MOS;
OC Formula Connector Kit:
– Hi-Density Power Connector (24-pin for Motherboard, 8+4 pin for Motherboard, 6-pin for PCIe Slot);
– 15μ Gold Contact (memory sockets and PCIE x16 slots (PCIE1 and PCIE5));
OC Formula Cooling Kit:
– 8 Layer PCB;
– 2oz copper;
– Heat Pipe Design;
OC Formula Monitor Kit:
– Multi Thermal Sensor
ASRock Super Alloy:
– алюминиевый радиатор XXL;
– дроссели Premium 60A Power Choke;
– 60A Dr.MOS;
– премиальные конденсаторы памяти;
– конденсаторы Nichicon 12K Black (100% изготовленные в Японии полимерные конденсаторы высокого качества и проводимости);
– чёрная матовая печатная плата;
– High Density Glass Fabric PCB;
ASRock Steel Slots; ASRock Ultra M.2 (PCIe Gen3 x4 & SATA3); ASRock Ultra USB Power; ASRock Full Spike Protection (для всех разъёмов USB, Audio и LAN); ASRock Live Update & APP Shop
|
Операционная система |Microsoft Windows 10 x64
|
Форм-фактор, габариты (мм) |ATX, 305 × 244
|
Гарантия производителя , лет |3
|
Минимальная розничная стоимость, руб. |
30 700
ASRock X299 OC Formula поставляется в большущей коробке, оформленной в строгой цветовой гамме. На лицевой стороне никаких ярких выделяющихся заставок и наклеек – только название платы, производителя и перечень поддерживаемых технологий.
На обратной стороне коробки можно найти краткое перечисление особенностей платы и её портов на задней панели, а более полная информация открывается под откидной передней панелью коробки.
Здесь уже можно почерпнуть практически всю информацию о продукте, а также увидеть большую часть платы через прозрачное пластиковое окно.
На стикере с торца коробки указаны серийный номер и номер партии, название модели платы и её размеры, страна производства и масса.
Обратите внимание, что весит плате более 1,2 килограмма, она действительно очень массивная и тяжёлая.
Внутри картонной коробки плата лежит на поддоне из вспененного полиэтилена, к которому она прижата пластиковыми стяжками, а сверху её накрывает ещё одна вставка из такого же материала.
В комплект поставки платы включены четыре SATA-кабеля с защёлками, стандартная backplate, заглушка задней панели, два винта для закрепления накопителей в слотах М.2, а также сразу четыре соединительных моста для организации различных SLI-конфигураций.
Из документации плата комплектуется двумя типами инструкций, содержащих разделы на русском языке, памяткой по поддерживаемым процессорам, открыткой ASRock, диском с драйверами и с фирменными утилитами.
ASRock X299 OC Formula сопровождается трёхлетней гарантией. Что касается стоимости, то в России плату можно приобрести по цене от 30,7 тысяч рублей. Иначе говоря, это одна из самых дорогих плат для процессоров конструктивного исполнения LGA2066.
Дизайн ASRock X299 OC Formula строгий, но в то же время притягательный. Цветовая гамма платы подобрана таким образом, чтобы все её элементы, включая радиаторы, гармонично сочетались друг с другом. Поэтому при взгляде на неё возникает ощущение серьёзного и качественного продукта, а не очередной «игрушечной» платы с яркими финтифлюшками на текстолите.
Особо хочется отметить массивные радиаторы на охлаждении цепей VRM процессора, соединённые тепловой трубкой. В одном стиле с ними оформлен и радиатор чипсета, на котором нанесено название модели платы.
Добавим, что ASRock X299 OC Formula выполнена в форм-факторе ATX и имеет размеры 305 × 244 мм.
Значительную площадь задней панели платы занимает ребристый торец второй секции радиатора. Очевидно, за счёт такого простого решения разработчики стремились повысить эффективность охлаждения элементов VRM. В спецификациях платы заявлено, что этот радиатор способен отвести от элементов VRM до 450 ватт тепловой мощности.
Несмотря на данный факт, все необходимые порты на заднюю панель выведены. Среди них восемь USB, включая 3.1 Gen2, порт PS/2, кнопки BIOS Flashback и Clear CMOS, две сетевых розетки, оптический выход и 5 аудиовыходов. Заглушка здесь не встроенная, как на некоторых других флагманских материнских платах.
Из навесных элементов на ASRock X299 OC Formula только радиаторы, никаких пластиковых кожухов с подсветкой. Радиаторы закреплены винтами, поэтому снимаются без особого труда. Вот как выглядит плата без них.
Как и в других флагманских моделях плат ASRock, в X299 OC Formula используется восьмислойный текстолит высокой плотности, более стойкий к перепадам напряжений и повышенной влажности. Кроме того, в нём удвоена толщина медных слоёв, что должно положительно сказаться на теплораспределении.
Основные достоинства платы ASRock, которые мы разберём по ходу статьи, приведены ниже.
Детальнее изучить расположение элементов на текстолите поможет схема с таблицей из инструкции по эксплуатации.
В процессорном разъёме LGA2066 платы ASRock X299 OC Formula контактные иглы покрыты напылением из 15-мкм слоя золота. По мнению разработчиков, такое напыление способствует повышению стойкости игл к коррозии и увеличению количества раз, которое можно извлечь и установить процессор, без ухудшения контакта с ним (что особенно актуально для оверклокеров). Кроме того, в центре разъёма есть отверстие для установки под процессор термодатчика.
В настоящее время плата поддерживает 17 моделей процессоров Intel, выпущенных в конструктивном исполнении LGA2066.
Заявлено, что цепь питания процессора построена по 13-фазной схеме, где используются сборки Dr. MOS, долговечные конденсаторы Premium 60A Power Choke и Nichicon 12K. Суммарная мощность цепи питания процессора завялена на отметке 750 А.
Но при её более внимательном изучении выясняется, что непосредственно на процессор здесь отведено 12 фаз, а ещё одна задействована на VCCSA (правый дроссель на фото с маркировкой TR30) и VCCIO. На обратной стороне текстолита распаяны микросхемы-дублёры, об использовании которых говорит и применение семифазного контроллера ISL69138.
Кроме того, у ASRock X299 OC Formula есть внешний тактовый генератор – Hyper BCLK Engine III, реализованный микропроцессором ICS 6V41742B.
Он должен помочь достичь более высоких результатов разгона по частоте BCLK и обеспечить повышенную точность её установки.
Для обеспечения питанием плату наделили четырьмя разъёмами. В их числе стандартные 24- и 8-контактный, а также дополнительный 4-контактный для процессора и памяти. Ну и шестиконтактный разъём, который следует подключать, если на плату установлены сразу четыре видеокарты.
Во всех разъёмах питания платы используются контактные иглы повышенной плотности.
Количество слотов оперативной памяти на плате ASRock X299 OC Formula сокращено с восьми до четырёх, а максимальный объём поддерживаемой памяти DDR4 снижен со 128 до 64 Гбайт. Такой подход инженеров ASRock понятен и оправдан, поскольку оверклокеры на платформах с LGA2066 крайне редко задействуют все восемь слотов, а от четырёх модулей добиться более впечатляющего разгона памяти куда проще, нежели от восьми. Расположены слоты попарно с обеих сторон от процессорного разъёма, все контакты внутри них покрыты 15-мкм слоем золота.
Частота модулей может достигать 4600 МГц, а поддержка XMP (Extreme Memory Profile) стандарта 2.0 максимально упростит достижение этого показателя, благо комплекты DDR4 с такой номинальной частотой уже можно приобрести. Кстати, на сайте компании опубликованы перечни сертифицированных для данной платы комплектов оперативной памяти, среди которых значится и память с частотой 4600 МГц (G.Skill F4-4600CL19D-16GTZKKC). Добавим, что система питания каждой пары слотов двухканальная.
Слотов PCI Express на ASRock X299 OC Formula сразу семь, при этом пять из них, выполненные в форм-факторе x16, имеют металлическую оболочку, дополнительно усиливающую эти слоты и экранирующую их контакты от электромагнитного излучения. Кроме этого, в первом и пятом слотах контакты внутри также имеют золотое напыление слоем толщиной 15 мкм.
При установке на плату процессора с 44 линиями PCI-E поддерживается создание мультипроцессорных графических конфигураций из четырёх видеокарт на GPU AMD или NVIDIA в режиме x8/x8/x8/х8, а две видеокарты будут работать в полноскоростной связке х16/х16. В свою очередь, с процессором с 28 линиями PCI-Е возможна работа четырёх видеокарт на GPU AMD в режиме x8/x8/x8/x4 или трёх на GPU NVIDIA в режиме x8/x8/x8, а две видеокарты всегда будут работать в режиме х16/х8. Наконец, при установке в плату процессора с 16 линиями PCI-E будут доступны режимы х16 или х8/х8.
За распределение линий PCI-E на плате отвечает огромный массив мультиплексоров производства NXP (22 штуки), часть из которых вынесена на обратную сторону текстолита.
Дополнительно коммутирует линии PCI-Express контроллер ASM1184e производства ASMedia.
Для периферии на плате есть один слот PCI Express 3.0 x4 с открытым торцом и один слот PCI Express 2.0 x1.
Кристалл чипсета Intel X299 Express контактирует с радиатором через термопрокладку и ничем особенным не выделяется.
Разве только можно отметить, что на текстолите платы аккурат по периметру радиатора чипсета распаяны 19 светодиодов RGB-подсветки.
Плата оснащается сразу восемью портами SATA 3, шесть из которых реализованы возможностями чипсета Intel X299 Express. Они поддерживают создание RAID-массивов уровней 0, 1, 5 и 10, а также технологии Intel Optane Memory, Intel Rapid Storage 15, Intel Smart Response, NCQ, AHCI и Hot Plug.
Два дополнительных порта реализованы контроллером ASMedia ASM1061. Смысл их присутствия на плате, нацеленной на оверклокинг, нам не ясен.
ASRock X299 OC Formula наделили двумя портами Ultra M.2 с пропускной способностью до 32 Гбит/с, причём оба поддерживают накопители как с интерфейсом PCI Express x4 Gen 3, так и с SATA 3.
Длина накопителей в обеих портах может быть любой (от 30 до 110 мм), но недостаток здесь очевиден – радиаторы отсутствуют как класс, хотя проблема перегрева высокоскоростных SSD и снижение при этом их производительности сегодня стоит довольно остро.
В продолжение темы накопителей отметим наличие на плате разъёма Virtual RAID On CPU (VROC1).
Он предназначен для создания гипер-скоростных RAID-массивов из NVMe SSD, подключенных непосредственно к процессору.
Всего на плате 15 портов USB — восемь внешних и семь внутренних. Шесть портов являются USB 3.1 Gen1: четыре выведены на заднюю панель и два подключаются к внутреннему разъёму на плате. Ещё шесть портов относятся к стандарту USB 2.0: два выведены на заднюю панель и четыре подключаются к двум внутренним разъёмам на плате.
Все перечисленные порты реализованы возможностями чипсета. Два дополнительных контроллера ASMedia ASM3142 позволили добавить три высокоскоростных порта USB 3.1 Gen2 с пропускной способностью до 10 Гбит/с.
Два таких порта можно найти на задней панели (разъёмы Type-A и Type-C), а ещё один порт размещён на текстолите и предназначен для подключения к нему кабеля от передней панели корпуса системного блока. В целом количество USB-портов и их распределение на ASRock X299 OC Formula можно назвать идеальным.
Плату оснастили двумя гигабитными сетевыми контроллерами: Intel WGI219-V и Intel WGI211-AT.
Оба контроллера и их разъёмы имеют защиту от молнии и электростатических разрядов (Lightning/ESD Protection), а также поддерживают технологии Wake-On-LAN, Dual LAN with Teaming и энергосберегающий стандарт Ethernet 802.3az.
Несмотря на явную оверклокерскую направленность ASRock X299 OC Formula, звуку на ней уделено должное внимание. В основе звукового тракта лежит популярный 7.1-канальный аудиокодек Realtek ALC1220.
Для повышения чистоты звука его дополнили японскими аудиоконденсаторами Nichicon Fine Gold Series и усилителем для наушников TI NE5532 Premium с выводом на фронтальную панель (поддержка наушников с сопротивлением до 600 Ом).
Кроме того, левый и правый аудиоканалы расположены в разных слоях печатной платы, а вся зона аудиокомпонентов отделена от остальной части платы токонепроводящими полосками.
Такие аппаратные оптимизации, по заявлениям разработчиков, позволили добиться соотношения «сигнал – шум» на линейном аудиовыходе 120 дБ, а на линейном входе – 113 дБ. На программном уровне они дополнены технологиями Purity Sound 4, DTS Connect, Premium Blu-ray audio, Surge Protection и DTS Connect.
Функции мониторинга и управления вентиляторами на плате возложены сразу на два контроллера Super I/O Nuvoton NCT6683D и NCT6791D.
Кроме того, на обратной стороне платы распаяны два дополнительных контроллера Winbond W83795ADG.
Каждый такой контроллер может мониторить до 21 напряжения, 8 вентиляторов и 6 температурных сенсоров. Но странно, что на плате мы можем найти только 5 разъёмов для подключения и управления вентиляторами по ШИМ или напряжению. На наш взгляд, для материнской платы такого класса и направленности этих разъёмов должно быть не менее семи.
Зато плата оснащена исчерпывающим набором оверклокерских кнопок и переключателей, а также четырьмя диагностическим светодиодами.
Кроме того, на нижней кромке текстолита размещён индикатор POST-кодов, с помощью которого можно определить причину ошибки при загрузке или сбое системы.
ASRock X299 OC Formula содержит две 128-битных микросхемы BIOS.
Переключение между основной и резервной микросхемой реализовано старой доброй перемычкой. Добавим, что для обновления BIOS может быть использована кнопка BIOS Flashback на задней панели платы. Причём для этого не потребуется ни процессор, ни оперативная память, ни видеокарта — только сама плата с подключенным питанием, USB-накопитель с файловой системой FAT32 и новой версией BIOS.
Как мы уже упоминали выше, на плате подсвечивается зона радиатора чипсета. Цвет подсветки и режим её работы настраиваются как в BIOS, так и в фирменном приложении ASRock RGB LED.
Расширить подсветку на весь корпус системного блока помогут два RGB-разъёма, к которым можно подключить светодиодные ленты с пределом по току 3 А каждая и длиной до двух метров.
Охлаждение элементов цепи VRM на ASRock X299 OC Formula реализовано двумя массивными радиаторами, соединёнными тепловой трубкой. Выносной радиатор частично выходит на заднюю панель платы и дополнительно охлаждается внешним воздушным потоком.
На едва нагревающемся чипсете установлен плоский алюминиевый радиатор с термопрокладкой.
Из коробки ASRock X299 OC Formula поставляется с BIOS версии P1.10, но перед тестами мы обновили её на последнюю доступную — P1.60 от 01.11.2018. Оболочка традиционно загружается в базовом режиме EZ Mode — скорее информационном, нежели функциональном.
При переходе в расширенный режим (достаточно нажать F6) открываются восемь разделов со сгруппированными в них подразделами. В первом, кроме названия модели платы и версии BIOS, выводится информация об установленных процессоре и оперативной памяти.
Дальше сразу же идёт раздел OC Tweaker, состоящий из четырёх подразделов и отдельных настроек процессора. В отличие от других плат ASRock, в X299 OC Formula прописаны семь профилей разгона процессора 7900X для экстремального охлаждения. Именно к их созданию и приложил руку Ник Ши.
Во вложенных подразделах доступны всевозможные настройки процессора, частоты BCLK, параметры энергосбережения и прочее. Отдельно отметим параметр Benchmark Tweaker, активация которого должна повысить производительность системы в тестах, но что конкретно изменяет данный параметр — в инструкции к плате или на сайте ASRock не сказано.
В плане настроек оперативной памяти BIOS ASRock X299 OC Forumla и вовсе можно назвать безграничным. Здесь доступны частоты вплоть до 4600 МГц и несчётное количество таймингов.
Самый интересный и полезный для разгона подраздел в OC Tweaker называется Voltage Configuration — в нём к изменению доступны 13 основных напряжений и предлагается выбор из пяти уровней режима стабилизации напряжения на ядре процессора (LLC).
Не менее важен и подраздел FIVR Configuration, где доступны разные методы повышения напряжений на ядре процессора, Mesh, SA и VCCU.
Диапазоны регулировки основных напряжений материнской платой ASRock X299 OC Formula с их шагом мы приведём в следующей таблице.
|
Напряжение |
Минимальное значение, В |
Максимальное значение, В |
Шаг
|
CPU VCore |
0,800 |
2,000 |
0,005
|
CPU Mesh |
0,800 |
2,000 |
0,005
|
CPU Input |
0,900 |
3,000 |
0,005
|
CPU VCCIO |
0,850 |
2,000 |
0,005
|
CPU VCCSA |
0,900 |
2,000 |
0,005
|
CLK VDD |
1,050 |
4,050 |
0,050
|
VPPM AB/CD |
2,400 |
2,800 |
0,050
|
DRAM AB/CD |
1,100 |
2,500 |
0,005
|
VTT AB/CD |
0,500 |
1,150 |
0,005
|
PCH PLL |
0,850 |
3,000 |
0,050
|
1.0 PCH |
0,900 |
1,500 |
0,050
Как видим, набор доступных к изменению напряжений более чем исчерпывающий, а их диапазоны удовлетворят даже экстремальных оверклокеров, для которых, собственно, плата и разрабатывалась.
Далее следует основной раздел Advanced. В нём собраны дополнительные настройки процессора, а также чипсета и периферийных устройств материнской платы.
Есть и встроенные в BIOS утилиты, в том числе предоставляющие возможность прямого обращения в техническую поддержку ASRock, а также два варианта обновления микрокода — с накопителя или по сети.
Раздел с мониторингом и настройками вентиляторов дает пользователю исчерпывающую информацию о температурах и напряжениях, а также позволяет настроить каждый из пяти вентиляторов индивидуально.
Правда, здесь мы заметили одну странность – подключенный к первому (процессорному) разъёму вентилятор может регулироваться только при помощи ШИМ-сигнала, а по напряжению такой возможности в BIOS не предусмотрено. При этом для четырёх других разъёмов возможен выбор метода регулировки PWM/DC. Удобнее всего регулировать скорость вентиляторов через встроенную утилиту FAN-Tastic Tuning.
Напоследок приведём разделы BIOS с параметрами безопасности и настройкой загрузки системы.
Отметим ещё один недостаток BIOS – изменённые в процессе работы настройки не отображаются при выходе из него. Нельзя сказать, что это критичное замечание, но функция действительно удобная. Странно, что во флагманской плате ASRock от неё отказались.
Проверка стабильности, оверклокерского потенциала и производительности материнской платы ASRock X299 OC Formula была проведена в закрытом корпусе системного блока при комнатной температуре около 25,5 градусов Цельсия. Конфигурация состояла из следующих комплектующих:
Тестирование было проведено под управлением операционной системы Microsoft Windows 10 Pro версии 1809 (17763.292) с установкой следующих драйверов:
Стабильность системы при разгоне мы проверяли стресс-утилитой Prime95 29.4 build 8 и другими бенчмарками, а мониторинг проводился с помощью HWiNFO64 версии 6.03-3690.
Перед началом тестирования приведём характеристики платы из ASRock X299 OC Formula информационно-диагностической утилиты AIDA64 Extreme.
Чтобы определить температуры и напряжения, которые плата устанавливает автоматически, первый тест мы провели без каких-либо изменений настроек BIOS, не считая активированного XMP и отключения невостребованных контроллеров.
Частота ядер процессора изменялась в диапазоне от 1100 до 4500 МГц, напряжение – от 0,512 до 1,273 В, которое в нагрузке просаживалось до 1,088 В. При этом максимальная температура наиболее горячего ядра процессора достигала отметки 81 градус Цельсия.
Температуры элементов VRM (если верить встроенному датчику) поднимались только до 57 градусов Цельсия, а пиковое энергопотребление процессора не превысило 196 ватт. Иначе говоря, в целом автоматические настройки BIOS платы ASRock X299 OC Formula не требуют каких-либо корректировок и вполне подходят для повседневного использования.
Теперь о разгоне. По тестам нашего экземпляра Intel Core i9-7900X мы уже знаем, что на хорошем воздушном охлаждении он должен быть стабилен на частоте 4,4 ГГц, которую мы в BIOS для него и выставили. Осталось только подобрать минимально возможное напряжение на ядре, расширить лимиты по питанию и мощности, и настроить прочие параметры.
Таким напряжением при самом сильном уровне стабилизации LLC1 оказалось 1,120 В, а напряжения VCCIO и VCCSA мы впоследствии зафиксировали на 1,100 В. С данными настройками температура процессора достигала отметки 96 градусов Цельсия, что уже было недалеко от границы троттлинга.
Температура элементов цепей VRM достигла 66 градусов Цельсия, а энергопотребление процессора – 261 Вт. Поскольку дальнейшего запаса по охлаждению процессора у нас не было, то мы проверили возможность разгона частоты кольцевой шины mesh, которую удалось поднять с автоматически выставляемых платой 2900 МГц до 3200 МГц с напряжением 1,095 В. Увеличение напряжения mesh вплоть до 1,200 В не позволяло поднять частоту шины ещё хотя бы на 100 МГц без потери стабильности, поэтому пришлось остановиться на 3200 МГц, подобрав минимально возможное напряжение.
В завершение тестирования платы мы проверили разгон четырёхканального комплекта Corsair Vengeance LPX 3,0 ГГц, достигнув частоты 3,2 ГГц с основными таймингами 16-16-16-32 CR1 и небольшой корректировкой второстепенных таймингов. Итоговый результат вы можете видеть на скриншоте.
Отметим, что на нашей тестовой плате ASUS Prime X299-A в силу каких-то её особенностей частоту этого же комплекта оперативной память выше 2,933 ГГц поднять не удавалось. Здесь же результат разгона памяти получился более интересный, хотя и по-прежнему скромный по современным меркам. Добавим, что на форуме сайта Overclock.net создана тема, в которой гуру оверклокинга, включая Ника Ши, консультируют по вопросам разгона процессоров и памяти на плате ASRock X299 OC Formula.
Производительность разогнанной на ASRock X299 OC Formula системы мы предлагаем сравнить с производительностью точно такого же «конструктора», но на ASUS Prime X299-A. Разница кроется в том, что частота mesh и оперативной памяти на платформе ASRock выше, но на ASUS немного сильнее зажаты тайминги работы памяти. Вот результаты.
|
ASRock X299 OC Formula Intel Core i9-7900X @4,4 ГГц , mesh 3,2 ГГц DDR4 4 × 4 Гбайт Corsair Vengeance LPX 3,2 ГГц 16-16-16-32 CR1, tRFC 350, tREFI 32767 |
ASUS Prime X299-A Intel Core i9-7900X @4,4 ГГц, mesh 3,0 ГГц DDR4 4 × 4 Гбайт Corsair Vengeance LPX 2,933 ГГц 15-16-16-32 CR1, tRFC 280, tREFI 32767
|
AIDA64 Extreme 5 cache & memory benchmark
|
WinRAR 5.70 x64
|
7-zip 19 . 00 x64
|
HWBOT x265 v2.2.0
|
EZ CD Audio Converter (FLAC в MP3 320 Кбит / с )
|
Blender 2. 8 0 beta
|
Corona 1.3 Benchmark
|
CINEBENCH R20 x64
|
3DMark 2.8.6546 64, Time Spy CPU test
Как вы понимаете, такую разницу нельзя назвать существенной, но в целом победа осталась за платой ASRock.
ASRock X299 OC Formula можно назвать идеальной материнской платой для разгона многоядерных процессоров Intel с ядром Skylake-X. Чтобы сделать её таковой, разработчики предусмотрели для процессоров усиленную систему питания суммарной мощностью свыше 700 ватт на долговечных компонентах, внешний тактовый генератор, расширенный набор аппаратных средств управления и мониторинга при разгоне, двойной BIOS с огромным количеством настроек. Поэтому остаётся только подобрать удачный процессор, обеспечить ему эффективное охлаждение, и вперёд – к мировым рекордам.
Для игроков плата готова предложить создание мультипроцессорных графических конфигураций, в которых можно использовать сразу четыре видеокарты, и аппаратно оптимизированный звук. Все соединительные мосты для NVIDIA входят в комплект поставки. Нет у X299 OC Formula пробелов и в количестве портов для внутренних или внешних накопителей (причём без компромиссов), и в сетевых интерфейсах.
При всех достоинствах платы мы всё же не можем не отметить и её недостатки. Прежде всего, у X299 OC Formula отсутствуют радиаторы для накопителей в портах M.2, что негативно скажется на производительности при продолжительной работе высокоскоростных накопителей, если у них не предусмотрено штатное охлаждение. Также на плате всего 5 разъёмов для вентиляторов, причем процессорный управляется только по ШИМ-сигналу. Этого, на наш взгляд, не достаточно. Из мелочей отметим два лишних SATA-порта на контроллере ASMedia и тот факт, что при выходе из BIOS не отображаются внесённые изменения. Последнее наверняка может быть исправлено новой версией BIOS.
Во всём остальном ASRock X299 OC Formula является безупречным инструментом для завоевания лидирующих позиций в рейтингах разгона центральных процессоров и оперативной памяти, пусть и стоит она довольно много. |
984,663 | Групповое тестирование 36 видеокарт в Tom Clancy’s The Division 2 | В последних играх, которые удостоились группового тестирования видеокарт на 3DNews (Battlefield V и Metro Exodus), все внимание было приковано к трассировке лучей. Только Shadow of the Tomb Raider задержался с поддержкой DXR. Но для того чтобы гибридный рендеринг превратился в стандарт, должно пройти еще немало времени, да и без трассировки лучей развитие игровой графики не остановилось. Tom Clancy’s The Division была одной из наиболее эффектных игр 2016 года, пусть и не все задумки Massive Entertainment дошли до релиза. Создатели The Division 2 развили наработки первой части и обучили движок Snowdrop новым трюкам. Посмотрим, как выглядит игра при различных настройках детализации и насколько велики ее запросы к быстродействию железа.
**Графический движок The Division 2**
Tom Clancy’s The Division 2 построена на графическом движке Snowdrop, который дебютировал в предыдущей части игры и за прошедшие три года лег в основу нескольких других проектов под крылом Ubisoft. В описании технических достоинств The Division 2 разработчики делают акцент на тех же особенностях, которыми отличилась первая The Division: реалистичных эффектах частиц, объемном свете (который проявляется в условиях низкой видимости — туман, пыль и тому подобное) и динамическом разрушении объектов окружающей среды. Разумеется, качество всех эффектов выросло, а вместе с ним — системные требования. Но и компьютерное железо (вместе с консолями) не стоит на месте, так что Massive Entertainment в этот раз не пришлось портить графику финальной версии игры по сравнению с тем, что было показано в ранних демонстрациях.
Для имитации глобального освещения Snowdrop полагается на систему зондов (probes), распределенных по игровым локациям, которая позволяет выполнить часть вычислений по распространению света — в том числе отражение лучей от поверхностей — «в офлайне» (PRT — Precomputed Radiance Transfer), но в то же время реагирует на такие события, как изменение времени суток и перемещение локальных источников света. Это лучший метод, который возможен без применения трассировки лучей, ведь поддержка функций DXR в The Division 2 отсутствует и не планируется. В свою очередь, отражения в лужах и водоемах реализованы с помощью кубических карт и, разумеется, не настолько детализированы, как позволяет сделать Ray Tracing в Battlefield V. Как ни крути, после нескольких игр, совместимых с DXR, трудно избежать сравнения с подобным уровнем визуальных эффектов.
В отличие от первой части The Division, которая обзавелась поддержкой Direct3D 12 уже после релиза, движок новой игры изначально рассчитан на современный API Microsoft. The Division 2 эффективно пользуется ресурсами многоядерных CPU и задействует асинхронное исполнение инструкций (то есть цепочек команд для операций рендеринга и GP-GPU) на графическом процессоре. Последнее обстоятельство — это плохие новости для видеокарт NVIDIA на чипах Maxwell, но Direct3D 11 по-прежнему доступен в качестве альтернативного API.
При создании оригинальной Tom Clancy’s The Division команда Massive Entertainment сотрудничала с NVIDIA и внедрила в графический движок проприетарные методы рендеринга теней (PCSS и NFTS). Но игровые франшизы Ubisoft не хранят лояльность к производителям GPU — вторая часть The Division переметнулась к AMD и отлично оптимизирована под архитектуру Graphics Core Next за счет так называемых Shader Intrinsics.
Хотя в новостях про игру Shader Intrinsics часто называют «функцией» графических процессоров AMD, на самом деле это универсальный термин, который означает шейдерные программы в формате, непосредственно пригодном для запуска на GPU. Так делают в играх для консолей, в то время как в большинстве проектов на PC шейдеры написаны высокоуровневым языком (HLSL, High Level Shading Language для Direct3D или GLSL для OpenGL), а соответствующий компонент API выполняет компиляцию в машинный код. Низкоуровневые шейдеры позволяют сократить время подготовки инструкций и более эффективно использовать ресурсы графического процессора, принадлежащего к той или иной архитектуре — в данном случае GCN.
С тех пор как AMD выпустила проприетарные расширения для Direct3D 12 и Vulkan, несколько игр (DOOM, Far Cry 5, Wolfenstein II: The New Colossus) уже продемонстрировали, насколько Shader Intrinsics полезны для видеокарт Radeon. Аналогичная возможность есть и в «зеленых» играх под флагом TWIMTBP (The Way It’s Meant to Be Played), но реализуется через проприетарный интерфейс NVAPI. Кроме того, у NVIDIA нет специального названия для низкоуровневых шейдеров (Shader Intrinsics — это термин AMD), поэтому трудно оценить, как широко они применяются на ускорителях GeForce. Как бы то ни было, Tom Clancy’s The Division 2 — это «красная» игра, и, как только мы добавим ее в нашу методику тестирования графических карт, итоги обзоров немного сместятся в пользу AMD.
Интерфейс The Division 2 содержит огромное количество индивидуальных настроек качества графики. Большинство игроков не станет выяснять, в какой мере каждая из них воздействует на частоту смены кадров, и выберет один из готовых профилей детализации — Low, Medium, High или Ultra. Для тестирования видеокарт мы воспользовались профилями Low, Medium и Ultra. Параметры каждого профиля содержатся в таблице ниже, но заметим, что профиль Low не означает абсолютный минимум качества (детализацию частиц и отражений можно сделать еще ниже). В свою очередь, профиль Ultra можно усилить за счет качества отражений и теней. Кроме того, профиль Low устанавливает сниженное до 75 % разрешение viewport’a — от этого мы отказались. Вне зависимости от профиля настроек, The Division 2 использует полноэкранное сглаживание по методу TAA, причем отключить его через пользовательский интерфейс невозможно. Все тесты производительности были выполнены под API Direct3D 12.
|Настройки качества графики в тестах
|Low
|Medium
|Ultra
|Enable Reduced Latency
|No
|No
|No
|Shadow Quality
|Low
|Medium
|High
|Spot Shadows
|Low
|Medium
|High
|Spot Shadows Resolution
|Low
|Medium
|Ultra
|Contact Shadows
|Off
|Off
|All High
|Resolution Scale
|100%
|100%
|100%
|Sharpening
|7
|7
|7
|Particle Detail
|Medium
|High
|Ultra
|Volumetric Fog
|Low
|Medium
|Ultra
|Reflection Quality
|Medium
|Medium
|Medium
|Local Reflection Quality
|Low
|Medium
|Very High
|Vegetation Quality
|Low
|Medium
|High
|Sub-Surface Scattering
|Off
|On
|On
|Anisotropic Filtering
|1X
|4X
|16X
|Parallax Mapping
|Yes
|Yes
|Yes
|Ambient Occlusion
|Low
|Medium
|Very High
|Depth of Field
|Off
|On
|On
|Object Detail
|0
|20
|60
|Extra Streaming Distance
|0
|0
|10
|Lens Flare
|On
|On
|On
|Vignette Effect
|On
|On
|On
|Water Quality
|Low
|Medium
|High
|Chromatic Aberration
|Off
|On
|On
|Projected Texture Resolution
|128
|256
|512
|High Resolution Sky Textures
|No
|No
|Yes
|Terrain Quality
|Low
|Medium
|High
Изображение The Division 2 сильно меняется при изменении профиля качества с Low на Medium, особенно в части эффектов освещения. Профили Medium и Ultra различаются не так сильно, и все же есть большая разница в таких аспектах, как дистанция прорисовки объектов и качество отражений.
⇡#
**Тестовый стенд, методика тестирования**
|Тестовый стенд
|CPU
|Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
|Материнская плата
|ASUS MAXIMUS XI APEX
|Оперативная память
|G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 Гбайт (3200 МГц, CL14)
|ПЗУ
|Intel SSD 760p, 1024 Гбайт
|Блок питания
|Corsair AX1200i, 1200 Вт
|Система охлаждения CPU
|Corsair Hydro Series H115i
|Корпус
|CoolerMaster Test Bench V1.0
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|ПО для GPU AMD
|Все видеокарты
|AMD Radeon Software Adrenalin 2019 Edition 19.3.2
|ПО для GPU NVIDIA
|Все видеокарты
|NVIDIA GeForce Game Ready Driver 419.35
Тестирование производительности выполнено с помощью встроенного бенчмарка Tom Clancy’s The Division 2. Показатели средней и минимальной кадровых частот выводятся из массива времени рендеринга индивидуальных кадров, который игра записывает в файл результатов.
Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени рендеринга кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел берется значение, соответствующее 1-му процентилю распределения.
*Прим.:* * в спецификациях графических карт Vega и Radeon VII в качестве высшей частоты (Boost Clock) AMD указывает не максимально допустимую при штатных настройках, как было в предыдущих поколениях архитектуры GCN, а верхнюю границу диапазона, в котором GPU работает при типичной нагрузке. Но поскольку утилиты для мониторинга и разгона, включая фирменный WattMan, игнорируют Boost Clock и по-прежнему показывают предельную частоту, в списке устройств и на диаграммах указана именно она.*
Как и в предыдущих массовых тестах графических карт, мы сгруппировали результаты измерений в соответствии с разрешением экрана и детализацией графики. В каждом из трех режимов (1920 × 1080, 2560 × 1440, 3840 × 2160) выполнен тест c низкими (профиль Low), средними (профиль Normal) и высокими настройками качества (профиль Ultra).
Если какая-либо видеокарта отсутствует на диаграмме при определенном разрешении, то это значит, что или а) при более высоком качестве графики устройство уже обеспечивает среднюю частоту смены кадров 60 FPS и выше; или б) устройство не достигло 30 FPS при данной комбинации разрешения и детализации. Таким образом, для каждой взятой видеокарты определяется диапазон настроек между «едва тянет» и «снижать качество не требуется».
При низком разрешении экрана у The Division 2 весьма демократичные требования к быстродействию видеокарты. Если понизить качество графики до профиля Low (но не трогать настройку разрешения рендеринга), то для этой игры подходит даже Radeon R9 360 или GeForce GTX 750 Ti — видеокарты, которые уже не обеспечивают 30 FPS в других современных проектах. Более мощные старые модели (такие как Radeon R9 380X), а также ускорители средней ценовой категории, принадлежащие к следующему поколению чипов AMD и NVIDIA (Radeon RX 460/560 или GeForce GTX 1050 Ti), достигли следующей отметки — 60 FPS.
При среднем качестве графики слабейшие видеокарты, которые обладают достаточным быстродействием для 60 FPS с низкими настройками (Radeon RX 460/560, GeForce GTX 1050 Ti), могут претендовать только на 30 FPS. Рекомендации для комфортной игры включают Radeon RX 470/570 или GeForce GTX 1060, а из железа прошлого поколения — GeForce GTX 970 или опять-таки Radeon R9 380X. Этот список актуален для The Division 2 и в профиле Ultra, только запросы к быстродействию придется уменьшить до 30 FPS. Да и для игры с частотой смены кадров выше 60 FPS требуется не слишком мощное оборудование — подойдет GeForce GTX 1070, Radeon RX 580 или новенький GeForce GTX 1660.
При разрешении 1080p c ультравысокими настройками 60 FPS набрали старые флагманы — GeForce GTX 980 Ti и Radeon R9 Fury X. Результат Fury X означает, что игре в таких условиях хватает 4 Гбайт оперативной памяти GPU. Ну а современные высокопроизводительные устройства (GeForce RTX 2080, RTX 2080 Ti и Radeon VII) уводят среднюю частоту смены кадров за пределы 120 FPS.
В силу того, что The Division 2 не использует ресурсоемких методов полноэкранного сглаживания, между режимами 1080p и 1440p нет большой разницы по быстродействию игры и системным требованиям при различных уровнях качества графики. С графиков исчезли совсем слабые GPU, которые балансировали на грани 30 FPS при разрешении 1080p. А вот устройства средней ценовой категории — как сравнительно новые модели (Radeon RX 460/560, GeForce GTX 1050 Ti), так и откровенно старые (Radeon R7 370 и GeForce GTX 960) — по-прежнему годятся для профиля Low. Достаточно высокой производительностью, чтобы поддерживать частоту смены кадров выше 60 FPS, обладают GeForce GTX 970 или Radeon R9 380X.
В списке минимальных системных требований при среднем уровне графики остались Radeon RX 460 и RX 560, но в модельном ряду старых видеокарт придется сместиться на шаг выше — до Radeon R9 380X или GeForce GTX 970. Современные ускорители среднего уровня (GeForce GTX 1060, GTX 1660 или Radeon RX 470/570) или мощные модели предыдущего поколения (GeForce GTX 980 Ti, Radeon R9 390X) обеспечивают 60 FPS при такой комбинации разрешения и качества графики.
Внимательные читатели уже могли заметить, что чипы архитектуры GCN отлично чувствуют себя в The Division 2: благодаря Shader Intrinsics противостояние между близкими по быстродействию моделями AMD и NVIDIA по общему счету завершилось в пользу красной команды. Так, при ультравысоком качестве графики и разрешении 1440p модели AMD уровня Radeon RX 470/570 или Radeon R9 390X обеспечивают частоту смены кадров не меньше 30 FPS — как и в режиме 1080p. В то же время из каталога NVIDIA для этого требуется GeForce GTX 1060, GTX 1660 или GeForce 980 Ti. А если увеличить требования к частоте смены кадров, то Radeon RX Vega 56 проходит фильтр 60 FPS наряду с GeForce GTX 1080 и GTX 2070.
Примечательно, что в режиме 1440p все еще нет признаков того, что на видеокартах с объемом RAM 4 Гбайт графический процессор ограничен конфигурацией оперативной памяти, — владельцам Radeon R9 Fury или младших моделей Radeon RX 570/580 не о чем беспокоиться.
Даже при разрешении Ultra HD графический движок Snowdrop позволяет адаптировать игру к широкому спектру графических процессоров. Но разница в быстродействии между режимами 1440p и 2160p настолько велика, что требования The Division 2 при разрешении 4К и низких настройках почти совпадают с требованиями для 1440p и ультравысоких настроек. По-прежнему актуальны Radeon RX 470/570, GeForce GTX 1060 или GTX 1660, а из старых моделей аналогичным быстродействием обладают GeForce GTX 970 и Radeon R9 380X. Для 60 FPS даже с низкими настройками необходимо железо иного уровня — GeForce GTX 1070 Ti, GeForce RTX 2060 или Radeon RX Vega 56. Благодаря Shader Intrinsics планку 60 FPS пробил Radeon R9 Fury X, в то время как все графические карты GeForce 900-й серии остались в диапазоне от 30 до 60.
Средние настройки детализации при разрешении 2160p — это самый требовательный режим, при котором на графиках осталось место для ускорителей NVIDIA на чипах Maxwell и видеокарт AMD 300-й серии: Radeon R9 390X и GeForce GTX 980 Ti обеспечивают среднюю частоту смены кадров 30 FPS. Альтернативой среди современных видеокарт среднего уровня являются GeForce GTX 1060, GTX 1660, а также Radeon RX 470/570. С быстродействием выше 60 FPS при средних настройках в The Division 2 позволяют играть GeForce GTX 1080 Ti, GeForce RTX 2070 и Radeon RX Vega 64.
И наконец, достигнуть отметки 60 FPS в 4К с профилем качества Ultra способна только лучшая потребительская видеокарта нашего времени — GeForce RTX 2080 Ti, а отметки 30 FPS достигли Radeon RX Vega 56, GeForce GTX 1080 Ti и GeForce RTX 2060.
При разрешении 2160p и детализации графики на уровне Medium или Ultra видно лучше всего, насколько значительную роль в The Division 2 играет функция Shader Intrinsics, особенно для GPU с широким вычислительным конвейером. Так, Radeon VII взял реванш у GeForce RTX 2080, а Radeon RX Vega 64 превосходит по быстродействию и GeForce GTX 1080, и GeForce RTX 2070. А главное, посмотрите, как сильно различаются результаты Radeon R9 Fury X и GeForce GTX 980 Ti — на 29 % в пользу ускорителя AMD. Впрочем, в последнем случае чипы архитектуры Maxwell ограничивает не только отсутствие низкоуровневых шейдеров, но и посредственная оптимизация под Direct3D 12 в целом и асинхронные вычисления в частности.
Графический движок Snowdrop прошел большой путь с тех пор, как Massive Entertainment представила его в первой части Tom Clancy’s The Division три года тому назад. Но минимальные запросы к ресурсам GPU практически не изменились по сравнению с требованиями предыдущей игры. Если считать 30 FPS приемлемой частотой смены кадров для динамичного многопользовательского шутера (а на консолях это норма), то при разрешении 1080p даже бюджетные — и при том довольно старые — видеокарты класса «затычка» (GeForce GTX 750 Ti и Radeon R7 360) обладают необходимым быстродействием.
Но лучше вооружиться современным ускорителем средней ценовой категории — Radeon RX 570 или GeForce GTX 1060. Такое железо позволит играть в The Division 2 при разрешениях 1080p и 1440p с кадровой частотой выше 60 FPS — при условии, что вы ограничитесь средними настройками качества графики. Более мощные ускорители уровня GeForce GTX 1080, RTX 2070 или Radeon RX Vega 56 достаточно хороши для того, чтобы увидеть The Division 2 во всей красе с ультравысокой детализацией изображения.
Разрешение 4К уже предъявляет совершенно иные требования к производительности GPU. Массовые видеокарты среднего уровня (Radeon RX 570, GeForce GTX 1060 или новоприбывшие модели серии GeForce 16) не дадут 60 FPS даже при низких настройках качества, а при ультравысоких на такое способен лишь GeForce RTX 2080 Ti. Как можно заметить по другим нашим групповым тестам за последние несколько лет (взять хотя бы Shadow of the Tomb Raider и Metro Exodus), игры класса ААА ориентируются на быстродействие лучших потребительских видеокарт в детализации графики при максимальном разрешении, доступном большинству геймеров.
Отдельно нужно сказать о том, как в The Division 2 соотносятся ускорители NVIDIA и AMD. Хотя предыдущая игра этой франшизы вышла под зеленым флагом, впоследствии Massive Entertainment поменяла свои пристрастия и внедрила поддержку низкоуровневых шейдеров для видеокарт архитектуры GCN. В результате каждая модель AMD, у которой есть прямой конкурент под маркой GeForce, превзошла соперника или по меньшей мере сократила отставание, которое есть в большинстве других игр.
|Low
|1920 × 1080
|2560 × 1440
|3840 × 2160
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|AMD Radeon 300
|AMD Radeon R7 360 (2 Гбайт)
|AMD Radeon R9 380X (4 Гбайт)
|AMD Radeon R7 370 (4 Гбайт)
|AMD Radeon R9 380X (4 Гбайт)
|AMD Radeon R9 380X (4 Гбайт)
|AMD Radeon R9 Fury X (4 Гбайт)
|AMD Radeon 400
|AMD Radeon RX 460 (4 Гбайт)
|AMD Radeon RX 460 (4 Гбайт)
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon 500 / AMD Radeon RX Vega / AMD Radeon VII
|AMD Radeon RX 560 16 CU (4 Гбайт)
|AMD Radeon RX 560 16 CU (4 Гбайт)
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX Vega 56 (8 Гбайт)
|NVIDIA GeForce 700/900
|NVIDIA GeForce GTX 750 Ti (2 Гбайт)
|NVIDIA GeForce GTX 960 (2 Гбайт)
|NVIDIA GeForce GTX 970 (4 Гбайт)
|NVIDIA GeForce GTX 970 (4 Гбайт)
|NVIDIA GeForce 10
|NVIDIA GeForce GTX 1050 Ti (4 Гбайт)
|NVIDIA GeForce GTX 1050 Ti (4 Гбайт)
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|NVIDIA GeForce 16/20
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|Medium
|1920 × 1080
|2560 × 1440
|3840 × 2160
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|AMD Radeon 300
|AMD Radeon R9 370X (2 Гбайт)
|AMD Radeon R9 380X (4 Гбайт)
|AMD Radeon R9 380X (4 Гбайт)
|AMD Radeon R9 390X (8 Гбайт)
|AMD Radeon R9 390X (8 Гбайт)
|AMD Radeon 400
|AMD Radeon RX 460 (4 Гбайт)
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon RX 460 (4 Гбайт)
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon 500 / AMD Radeon RX Vega / AMD Radeon VII
|AMD Radeon RX 560 16 CU (4 Гбайт)
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX 560 16 CU (4 Гбайт)
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX Vega 64 (8 Гбайт)
|NVIDIA GeForce 700/900
|NVIDIA GeForce GTX 950 (2 Гбайт)
|NVIDIA GeForce GTX 970 (4 Гбайт)
|NVIDIA GeForce GTX 970 (4 Гбайт)
|NVIDIA GeForce GTX 980 Ti (6 Гбайт)
|NVIDIA GeForce GTX 980 Ti (6 Гбайт)
|NVIDIA GeForce 10
|NVIDIA GeForce GTX 1050 Ti (4 Гбайт)
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|NVIDIA GeForce 16/20
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|Ultra
|1920 × 1080
|2560 × 1440
|3840 × 2160
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|AMD Radeon 300
|AMD Radeon R9 380X (4 Гбайт)
|AMD Radeon R9 Fury (4 Гбайт)
|AMD Radeon R9 390X (8 Гбайт)
|AMD Radeon 400
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon 500 / AMD Radeon RX Vega / AMD Radeon VII
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX 580 (8 Гбайт)
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX Vega 56 (8 Гбайт)
|AMD Radeon RX Vega 56 (8 Гбайт)
|NVIDIA GeForce 700/900
|NVIDIA GeForce GTX 970 (4 Гбайт)
|NVIDIA GeForce GTX 980 Ti (6 Гбайт)
|NVIDIA GeForce GTX 980 Ti (6 Гбайт)
|NVIDIA GeForce 10
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1080 (8 Гбайт, 10 Гбит/с)
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|NVIDIA GeForce 16/20
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт) |
984,713 | Gamesblender № 405: новая Vampire: The Masquerade, облачная платформа Google и нежданные анонсы EGS | С вами GamesBlender, еженедельный видеодайджест новостей игровой индустрии от 3DNews.ru. В сегодняшнем выпуске: множество подробностей о проекте Google Stadia; возрождение System Shock, Bloodlines и Project I.G.I.; фанатская версия Quake II с трассировкой лучей. А также другие новости и события игровой индустрии |
984,739 | Первые впечатления от Huawei P30 и P30 Pro: смартфоны с невероятным зумом | Топ-смартфоны Huawei больше не делятся на условно «народные» (серия P) и «для бизнеса» (серия Mate). Речь идет просто о весеннем флагмане, который демонстрирует достижения компании (в первую очередь в разработке мобильной камеры), и об осеннем, представляющем свежую платформу HiSilicon. Эдакий Huawei tick-tock, подсмотренный у Intel.
И по габаритам, и по диагонали дисплея, и по заметной части технических характеристик Huawei P30/P30 Pro – прямой продолжатель дела Mate 20/Mate Pro соответственно. Но с рядом свежих решений, которые должны помочь гаджету поддержать порыв P20 Pro, изменившего представление о том, каким вообще может быть флагманский смартфон Huawei.
⇡#Краткие характеристики Huawei P30
|Huawei P30 Pro
|Huawei P30
|Huawei Mate 20 Pro
|Huawei P20 Pro
|
Процессор |HiSilicon Kirin 980: восемь ядер (2 × ARM Cortex-A76, частота 2,6 ГГц + 2 × ARM Cortex-A76, частота 1,92 ГГц + 4 × ARM Cortex-A55, частота 1,8 ГГц), графическое ядро ARM Mali-G76; архитектура HiAI
|HiSilicon Kirin 980: восемь ядер (2 × ARM Cortex-A76, частота 2,6 ГГц + 2 × ARM Cortex-A76, частота 1,92 ГГц + 4 × ARM Cortex-A55, частота 1,8 ГГц), графическое ядро ARM Mali-G76; архитектура HiAI
|HiSilicon Kirin 980: восемь ядер (2 × ARM Cortex-A76, частота 2,6 ГГц + 2 × ARM Cortex-A76, частота 1,92 ГГц + 4 × ARM Cortex-A55, частота 1,8 ГГц), графическое ядро ARM Mali-G76; архитектура HiAI
|HiSilicon Kirin 970: восемь ядер (4 × ARM Cortex-A73, частота 2,4 ГГц + 4 × ARM Cortex-A53, частота 1,8 ГГц), графическое ядро ARM Mali-G72; архитектура HiAI
|
Дисплей |AMOLED, 6,47 дюйма, 2340 × 1080
|AMOLED, 6,1 дюйма, 2340 × 1080
|AMOLED, 6,39 дюйма, 3120 × 1440 точек
|AMOLED, 6,1 дюйма, 2240 × 1080
|
Оперативная память |8 Гбайт
|6 Гбайт
|6 Гбайт
|6 Гбайт
|
Флеш-память |256 Гбайт
|128 Гбайт
|128 Гбайт
|128 Гбайт
|
SIM-карты |Две nano-SIM, слот для карты памяти nano-SD
|Две nano-SIM, слот для карты памяти nano-SD
|Две nano-SIM, слот для карты памяти nano-SD
|Две nano-SIM, слот для карты памяти отсутствует
|
Беспроводные модули |Wi-Fi 802.11a/b/g/n/ac, Bluetooth, NFC, ИК-порт
|Wi-Fi 802.11a/b/g/n/ac, Bluetooth, NFC, ИК-порт
|Wi-Fi 802.11a/b/g/n/ac, Bluetooth, NFC, ИК-порт
|Wi-Fi 802.11a/b/g/n/ac, Bluetooth, NFC
|
Камера |Leica, четверной модуль, 40 + 20 + 8 Мп, ƒ/1,6-ƒ/3,4 + TOF-камера, десятикратный оптический зум, оптический стабилизатор, ультраширокий угол обзора
|Leica, тройной модуль, 40 + 16 + 8 Мп, ƒ/1,8-ƒ/2,4, трехкратный оптический зум, оптический стабилизатор, ультраширокий угол обзора
|Leica, тройной модуль, 20 + 40 + 8 Мп, ƒ/1,8-ƒ/2,4, трехкратный оптический зум, оптический стабилизатор, ультраширокий угол обзора
|Leica, тройной модуль 20 + 40 + 8 Мп, ƒ/1,6 + ƒ/1,8 + ƒ/2,4, трехкратный оптический зум, оптический стабилизатор
|
Сканер отпечатка пальца |В экране
|В экране
|В экране
|На лицевой панели
|
Разъемы |USB Type-C
|USB Type-C, 3,5 мм
|USB Type-C
|USB Type-C
|
Аккумулятор |4200 мА·ч
|3650 мА·ч
|4200 мА·ч
|4000 мА·ч
|
Габариты |158 × 73,4 × 8,4 мм
|149,1 × 71,4 × 7,6 мм
|157,8 × 72,3 × 8,6 мм
|155 × 73,9 × 7,8 мм
|
Масса |192 г
|165 г
|189 г
|180 г
|
Пыле- и влагозащита |IP68
|Нет информации
|IP68
|IP67
|
Операционная система |Android 9.0 Pie с фирменной оболочкой EMUI 9.1
|Android 9.0 Pie с фирменной оболочкой EMUI 9.1
|Android 9.0 Pie с фирменной оболочкой EMUI 9.0
|Android 8.1 Oreo с оболочкой EMUI 8.1
В первую очередь мы поговорим здесь о более совершенном и прорывном Huawei P30 Pro, предложившем совершенно новый тип камеры, – далеко не факт, что этот смартфон станет в итоге более популярным (ценовая политика Huawei часто создает привлекательную ситуацию для покупки именно «обычного» смартфона P-серии). Но и говорить о Pro интереснее, и демонстрирует подход и возможности мобильного подразделения Huawei он гораздо больше.
Внешне Huawei P30 и P30 Pro очень похожи – такого разрыва, какой был между P20/P20 Pro или Mate 20/Mate 20 Pro, здесь нет. Формой с минимальными скруглениями «тридцатые» напоминают Samsung Galaxy S10. Но на этом общее с ним, в принципе, заканчивается. Вместо встроенной в экран фронталки тут используется вырез-«капелька» – решение более традиционалистское, но и более практичное. По крайней мере, видео на весь экран смотреть на Huawei P30 будет удобнее.
Спинка в обеих версиях P30 изогнута и покрыта стеклом – ожидаемо скользким и марким. Почин Mate 20 Pro с его менее броским, но зато цепким «волокнистым» покрытием не поддержан. Цветовых решений в России будет доступно два: светло-голубое (с градиентом от розового до небесно-голубого) и «северное сияние» (градиент от темно-синего к ультрамарину). Всего существует 5 версий P30/P30 – к уже упомянутым цветам добавляются янтарно-красный, белый и черный. На фото в этом материале представлены смартфоны в цвете «северное сияние». Смотрится эффектно – в дизайне у прошлогодних флагманов новинки, безусловно, выигрывают. Не удивляйтесь отсутствию надписей на корпусе – в финальных образцах они обязательно будут, мы же знакомились с предсерийными смартфонами, которые скрывают свое происхождение.
Huawei P30 Pro оснащен 6,47-дюймовым OLED-дисплеем разрешением 2340 × 1080 (Full HD+). По слухам, после скандала с Mate 20 Pro (высокий процент брака) Huawei решила отказаться от экранов LG, заказывая их теперь у Samsung, но официального подтверждения этой информации представители компании не дают. Дисплей чуть больше, чем в Huawei Mate 20, Huawei Mate 20 Pro, но при этом почему-то с меньшим разрешением. В теории это положительно сказывается на автономности устройства, но идеальной по четкости картинки вы здесь не увидите. Дисплей изогнутый, но никаких дополнительных элементов управления (на манер тех, что есть в Samsung Galaxy или Sony Xperia) тут нет.
Huawei P30 получил 6,1-дюймовый OLED-дисплей того же разрешения. Есть все основания полагать, что это та же матрица, что используется в Huawei P20 Pro. Экран плоский, по краям не изгибается, рамки вокруг него чуть более заметны, чем в Pro-версии. Но в целом оба смартфона их почти лишены, все на современном уровне.
В P30 Pro рамку над дисплеем удалось еще сократить за счет избавления от прорези динамика. Вместо этого звук воспроизводится прямо через экран при помощи вибрации (подробной информации про этот тип динамика получить не удалось). И да, действительно, звук идет из экрана, причем качество совсем неплохое, в отличие от первого Xiaomi Mi MIX, в котором, видимо, использовалась подобная технология. Также при коротком тестировании удалось проверить, насколько звук, который издает такой динамик, распространяется по помещению (и насколько все окружающие слышат ваш разговор), – серьезных проблем тожене замечено.
В обеих версиях P30 сканер отпечатка пальца встроен в дисплей. Если учесть, что распознавание лица здесь доступно только при помощи фронтальной камеры (без TOF-сенсора или ИК-сенсора: элементарно нет места на вырезе-«капельке»), это немного пугает. Напомню, что в Mate 20 Pro и затем в Honor Magic2 были использованы первые в истории Huawei экранные ультразвуковые сенсоры – и работают они хуже, чем у конкурентов. Компания уверяет, что ситуация улучшилась и процент удачных распознаваний будет намного выше, а время, которое на это требуется, сократится до полусекунды. Проверим при полноценном тестировании.
Корпус Huawei P30 Pro защищен от пыли и влаги по стандарту IP68. А вот про Huawei P30 на момент написания материала информации не было – вероятно, он либо не получил зарегистрированной защиты, либо защищен по стандарту IP67. Отмечу, что в нем при этом есть мини-джек, в то время как P30 Pro аналогового аудиоразъема лишен.
Самое главное для большинства современных флагманских смартфонов, и для Huawei в особенности, – это, конечно, камера. Huawei P30 получил тройной модуль, очень близкий к тому, что мы видели в Mate 20 Pro: 40 + 16 + 8 Мп со светосилой ƒ/1,8, ƒ/2,2 и ƒ/2,4, соответственно. Каждая камера отвечает за свое фокусное расстояние, тем самым достигается и трехкратный оптический зум, и широкий угол обзора. Монохромный сенсор не используется, зато 40-мегапиксельный выполнен по совершенно новой технологии SuperSpectrum, в котором используются не RGB-фотодиоды, а RYYB (вместо зеленых — желтые). Производитель утверждает, что, несмотря на отсутствие монохромного сенсора, который помогал всем смартфонам Huawei, начиная с модели P9, снимать с повышенным динамическим диапазоном и здорово справляться в темноте, качество картинки очень сильно скакнуло вперед – этот тип сенсора должен собирать на 40% света больше, чем традиционный RGB. Подробностей про эту технологию пока немного, мы обязательно поговорим о ней подробнее в полноценном обзоре. Физические размеры сенсора – 1/1,7''. О птический стабилизатор в P30 работает с главным (40-мегапиксельным) и телефотомодулями; фазовый автофокус доступен на всех фокусных расстояниях.
В версии Huawei P30 Pro используются сразу четыре камеры. Главная – это 40-мегапиксельный сенсор SuperSpectrum, как в P30, но здесь с ним работает объектив светосилой ƒ/1,6 (фокусное расстояние – 27 мм), есть оптический стабилизатор и фазовый автофокус. Предельная светочувствительность впечатляет тоже – ISO 409600.
Не менее интересен и телефотомодуль: в нем применяется 8-мегапиксельный RGB-сенсор и объектив с относительным отверстием лишь ƒ/3,4, но он обеспечивает 5-кратный оптический зум (125 мм) – в корпусе спрятана «шахта» из линз, позволяющая получать этот невероятный для мобильного устройства результат. Естественно, доступен оптический стабилизатор (которому помогает цифровой с задействованием искусственного интеллекта), есть автофокус. И да, снять что-то с пятикратным или десятикратным (гибридным) зумом можно без проблем – по крайней мере, при искусственном свете «шевеленка» не заметна, а детализация вполне приемлема. Цифровой зум доступен 50-кратный.
Широкоугольный модуль наименее интересен: RGB, 20 мегапикселей, объектив светосилой ƒ/2,2 (фокусное расстояние – 16 мм). В P30 Pro появилась возможность в одной картинке объединять видео, которое снимается на широкоугольный модуль, с продуктом съемки телефотомодуля – режим получил название Multi-view.
Четвертая камера – это датчик глубины, так называемая камера TOF (Time of flight) камера. Она помогает размывать фон при съемке портретов как на фото, так и на видео. Есть, само собой, ночной режим с многокадровой экспозицией и «умным» стабилизатором. Очень интересно будет проверить, как это работает в сочетании с сенсором нового типа.
Фронталки в обоих P30 одинаковые – 32 мегапикселя, светосила ƒ/2,0.
В качестве аппаратной платформы и в Huawei P30, и в Huawei P30 Pro используется хорошо знакомая платформа HiSilicon Kirin 980 – каких-то чудес производительности (особенно игровой) от смартфонов ожидать не стоит. Объем встроенной памяти: 8 Гбайт оперативной и 128/256/512-Гбайт накопитель у P30 Pro и 6/128 Гбайт у P30. Оба смартфона поддерживают расширение памяти при помощи карточек фирменного стандарта nanoSD (для этого выделяется второй слот под SIM-карту). Операционная система на старте продаж – Android 9.0 Pie с фирменной оболочкой EMUI версии 9.1.
В Huawei P30 установлен аккумулятор на 3650 мА·ч, есть поддержка быстрой проводной зарядки Huawei SuperCharge мощностью до 22,5 Вт. Huawei P30 Pro оснащен батареей уже на 4200 мА·ч и поддерживает проводную зарядку Huawei SuperCharge до 40 Вт (за полчаса обещают зарядить на 70%), а также беспроводную зарядку мощностью до 15 Вт. P30 Pro, как и последний «мейт», умеет не только заряжаться без проводов, но и отдавать таким способом заряд
Мировые продажи уже начались, стоит Huawei P30 799 евро, для Huawei P30 Pro существует три версии, которые отличаются объемом памяти: версия на 128 Гбайт стоит 999 евро, на 256 Гбайт – 1099 евро, на 512 Гбайт – 1249 евро. |
984,758 | Core i9-9900X против Core i9-9900K: буква меняет всё | Платформа LGA2066 и процессоры семейства Skylake-X были представлены Intel более полутора лет тому назад. Изначально это решение нацеливалось компанией на сегмент HEDT, то есть на высокопроизводительные системы для пользователей, которые занимаются созданием и обработкой контента, ведь Skylake-X содержали существенно большее количество вычислительных ядер по сравнению с привычными представителями семейств Kaby Lake и Coffee Lake.
Однако за время, прошедшее с появления Skylake-X, ландшафт на процессорном рынке существенно изменился, и сегодня достаточно доступные CPU могут иметь шесть или даже восемь вычислительных ядер, а перспективные массовые CPU, которые должны выйти в течение этого года, могут получить десять или даже двенадцать ядер. Делает ли это Skylake-X бесполезными чипами? Скорее всего, нет. Во-первых, среди представителей этой серии существуют предложения с 16 и 18 ядрами, и подобных им массовых вариантов в ближайшее время на рынке точно не будет. Во-вторых, в платформе LGA2066 заложены и другие преимущества, отличающие их от обычных потребительских процессоров, например превосходство в числе каналов памяти и доступных линий PCI Express.
Поэтому косметическое обновление модельного ряда Skylake-X, которое микропроцессорный гигант провёл в конце прошлого года, показалось вполне закономерным – оно прекрасно вписывалось в принятый у Intel график ежегодных анонсов. Однако отношение производителя к своим HEDT-новинкам немного удивило: компания не только не стала пересматривать цены, но и к тому же отказалась предоставлять образцы процессоров IT-прессе, ограничившись лишь формальной презентацией и последующим началом продаж.
Судя по всему, компания посчитала новые Skylake-X вторичными и неинтересными продуктами, однако мы с такой формулировкой в корне не согласны. Да, количество вычислительных ядер у представителей этого модельного ряда в процессе обновления не увеличилось. Однако в них воплощены другие интересные усовершенствования: новинки получили возросшие тактовые частоты, увеличенный объём L3-кеша, а также улучшенный внутренний термоинтерфейс. Поэтому мы всё же решили уделить обновленным Skylake-X некоторое внимание, в чём нам сильно помог компьютерный магазин «Регард», согласившийся предоставить для исследования пару новых LGA2066-десятиядерников: Core i9-9820X и Core i9-9900X.
К тому же с самого момента анонса Skylake-X Refresh нам не давал покоя вопрос: почему для старшего десятиядерного HEDT-процессора Intel выбрала сходное до степени смешения название с популярным массовым восьмиядерником Core i9-9900K? Что это означает? И вот теперь у нас появился шанс разобраться…
⇡#Модельный ряд Skylake-X Refresh
О появлении новых LGA2066-процессоров с модельными номерами из девятитысячной серии Intel объявила ещё в октябре прошлого года. В число новинок вошло семь моделей: шесть процессоров серии Core i9 с числом ядер от 10 до 18 и восьмиядерная модель Core i7 условно начального уровня. Никаких шестиядерников и четырёхъядерников для LGA2066 в новом поколении больше не предусматривается, что на фоне бурного роста возможностей платформы LGA1151v2 совершенно не удивительно.
|Ядра/ потоки
|Базовая частота, ГГц
|Турбочастота, ГГц
|L3-кеш, Мбайт
|Память
|TDP, Вт
|Цена
|
Core i9-9980XE |18/36
|3,0
|4,5
|24,75
|DDR4-2666
|165
|$1 979
|
Core i9-9960X |16/32
|3,1
|4,5
|22,0
|DDR4-2666
|165
|$1 684
|
Core i9-9940X |14/28
|3,3
|4,5
|19,25
|DDR4-2666
|165
|$1 387
|
Core i9-9920X |12/24
|3,5
|4,5
|19,25
|DDR4-2666
|165
|$1 189
|
Core i9-9900X |10/20
|3,5
|4,5
|19,25
|DDR4-2666
|165
|$989
|
Core i9-9820X |10/20
|3,3
|4,2
|16,5
|DDR4-2666
|165
|$889
|
Core i7-9800X |8/16
|3,8
|4,5
|16,5
|DDR4-2666
|165
|$589
Самым заметным изменением в процессорах, перечисленных в таблице, если сравнивать с предшествующими моделями Skylake-X семитысячной серии, стал рост тактовых частот. Номинальные частоты поднялись на 200-600 МГц, а максимальные частоты, достигаемые при включении турборежима, выросли на 200-300 МГц. Кроме того, у младших представителей серии увеличился объем кеш-памяти третьего уровня. Раньше он рассчитывался исходя из правила «1,375 Мбайт на ядро», а теперь на каждое ядро может приходиться примерно до 2 Мбайт кеша. И последнее: контроллер PCI Express восьмиядерного Core i7-9800X был полностью разблокирован, благодаря чему этот процессор получил в своё распоряжение все 44 линии, которые ранее были доступны только в процессорах с числом ядер 10 и более.
Однако все эти приятные перемены повлекли за собой и рост тепловыделения. В то время как первое поколение Skylake-X имело тепловой пакет, ограниченный рамками 140 Вт, в новых процессорах характеристика TDP увеличена до 165 Вт. Иными словами, за повышенные частот, которые присвоены новым процессорам без каких-либо принципиальных перемен в применяемом для их выпуска 14-нм технологическом процессе, приходится расплачиваться расширившимися энергетическими и тепловыми пределами.
Правда, сама Intel при этом утверждает, что поднять скоростные характеристики позволило внедрение производственной технологии третьей версии с условным названием 14++ нм, по которой сейчас изготавливаются процессоры Coffee Lake и Coffee Lake Refresh. И если бы не это, то тепловыделение могло бы быть ещё выше. Но опасаться, что новые Skylake-X могут быть подвержены перегреву, причин нет. Снизить рабочие температуры новых процессоров должен улучшенный термоинтерфейсный материал под теплораспределительной крышкой. Место применявшейся ранее полимерной термопасты занял припой с заведомо более высокой теплопроводностью.
Но всё, о чём сказано выше, – это лишь вершина айсберга. Дело в том, что изменение спецификаций, и в первую очередь увеличение объёмов кеш-памяти третьего уровня, имеет под собой гораздо более неожиданную основу. Теперь для выпуска HEDT-процессоров Intel стала использовать несколько иные «по смыслу» полупроводниковые кристаллы.
Означает это следующее: HEDT-процессоры всегда представляли собой десктопную разновидность серверных чипов. Традиционно Intel брала младшие модификации Xeon, адаптировала к ним контроллер памяти и некоторые другие характеристики и переносила их в десктопное окружение. При этом, в то время как для своих серверных продуктов Intel производила три варианта полупроводниковых кристаллов: LCC (Low Core Count) с 10 ядрами, HCC (High Core Count) c 18 ядрами и XCC (eXtreme Core Count) c 28 ядрами, в десктопные HEDT-процессоры попадали только наиболее простые версии кристаллов. Так, в процессорах Skylake-X первого поколения с 6, 8 и 10 ядрами использовался кристалл LCC, а в модификациях с 12, 14, 16 и 18 ядрами применялся кристалл HCC.
В обновлённых же Skylake-X, о которых речь идёт сегодня, младший вариант кристалла LCC больше не применяется. Все новые HEDT-процессоры девятитысячной серии, в том числе и восьми- и десятиядерные варианты, базируются на кристалле HCC. То есть даже в Core i7-9800X или Core i9-9900X потенциально имеется 18 ядер, но значительная их часть аппаратно заблокирована на стадии производства.
Такое странное на первый взгляд решение было принято как раз ради увеличения объёма кеш-памяти в новых процессорах. Внутреннее устройство Skylake-X предполагает, что на каждое вычислительное ядро выделяется порция кеш-памяти объёмом 1,375 Мбайт. И если бы в том же Core i9-9900X использовался младший кристалл LCC, более 13,75 Мбайт L3-кеша этот процессор заведомо получить бы не мог. Более крупный кристалл HCC в этом плане гибче, в нём в общей сложности заложено 24,75 Мбайт кеша, и этот увеличенный объём частично задействован в восьми- и десятиядерных процессорах новой волны.
В результате все Skylake-X стали унифицированы по дизайну, но обратной стороной такой унификации стало повсеместное применение очень крупного полупроводникового кристалла с площадью около 485 мм
2, что более чем в два с половиной раза превосходит площадь кристалла восьмиядерных Coffee Lake Refresh. Это значит, что любой из LGA2066-процессоров девятитысячной серии имеет существенно более высокую себестоимость в сравнении с тем же Core i9-9900K. Но несмотря на это, восьмиядерный Core i9-9800X в официальном прайс-листе оценён всего на $100 дороже, чем Core i9-9900K. Поэтому резонно предположить, что производство восьми- и десятиядерных процессоров на основе 18-ядерных кристаллов всё-таки имеет для Intel какой-то экономический смысл, например компания пользуется этой возможностью для реализации полупроводниковых кристаллов с большим числом производственных дефектов, которые до сих пор не могли найти достойного применения.
⇡#Подробнее о десятиядерных Core i9-9900X и Core i9-9820X
Для проведения тестирования мы взяли два десятиядерных процессора «новой волны» – Core i9-9900X и Core i9-9820X. Несмотря на то, что эти CPU переехали на новый кристалл HCC, по сравнению с Core i9-7900X они изменились не так уж и сильно. Обычно Intel при выпуске вторых поколений процессоров для прошлых разновидностей платформы HEDT переводила их на более новую микроархитектуру, но сейчас этого не произошло. Изменения коснулись лишь численных параметров, качественно же в лице Core i9-9900X и Core i9-9820X мы имеем почти то же самое, что предлагал и десятиядерный Core i9-7900X образца 2017 года.
Но зато у Skylake-X второго поколения нет никаких проблем с совместимостью: они превосходно работают в имеющихся LGA2066-материнских платах, основанных на наборе системной логики Intel X299. Как и предшественники, они обладают четырёхканальным контроллером DDR4-памяти, а встроенный в них контроллер PCI Express 3.0 поддерживает 44 линии, которые в теории могут быть раздроблены на произвольное число слотов — от трёх до одиннадцати.
Тем не менее полупроводниковый кристалл HCC, лежащий в основе Core i9-9900X и Core i9-9820X, несколько отличается от кристаллов, которые использовались в старших Skylake-X раньше. Хотя формальный степпинг сохранил номер M0, который был характерен для первоначальных версий Skylake-X с числом ядер более 12, теперь Intel стала применять в производственном процессе видоизменённые литографические маски в связи с задействованием более зрелого техпроцесса 14++ нм вместо прошлого техпроцесса 14+ нм. Ключевое различие технологий состоит в немного большем шаге между затворами транзисторов, что, как мы уже видели на примере Coffee Lake, положительно сказывается на частотном потенциале.
На уровне же микроархитектуры изменений нет совсем. Удивительно, но в новые процессоры Skylake-X Refresh не попали даже никакие аппаратные исправления для борьбы с уязвимостями Meltdown и Spectre. И это очень странно на фоне того, что в параллельном продукте Coffee Lake Refresh, вышедшем в то же время, определённые заплатки уже появились. Например, современные LGA1151v2-процессоры защищены от атак Meltdown (Variant 3) и L1TF (Variant 5) на аппаратном уровне.
Но самое обидное даже не это. Основной повод для расстройства – отсутствие каких-либо перемен в схеме объединения компонентов процессора в единое целое. В Skylake-X Refresh продолжает использоваться одноранговая ячеистая Mesh-сеть, наложенная поверх массива процессорных ядер. Такая схема межъядерных соединений хорошо показывает себя при значительном увеличении числа ядер в серверных процессорах, но для HEDT-продуктов с не слишком высоким числом ядер она подходит гораздо хуже традиционной кольцевой шины, вызывая драматическое увеличение задержек. Одним из методов борьбы с этим негативным эффектом могло бы стать ускорение Mesh-соединений, но здесь всё осталось по-старому. Частота работы межсоединений как в прошлых, так и в нынешних Skylake-X установлена на отметке 2,4 ГГц, поэтому L3-кеш и контроллер памяти у LGA2066-процессоров имеют заметно худшую латентность на фоне массовых Coffee Lake Refresh. Правда, отчасти это компенсируется расширенной кеш-памятью второго уровня, которая у Skylake-X имеет объём 1 Мбайт на ядро, а не в четыре раза меньше.
Всё это легко проиллюстрировать графиком латентности подсистемы памяти процессоров Skylake-X нынешнего поколения в сравнении с Coffee Lake Refresh. Он явно показывает отсутствие улучшений в ситуации с задержками у новых HEDT-процессоров.
Зато новые десятиядерники могут похвастать прогрессом в тактовых частотах и в размере кеш-памяти. Например, Core i9-9900X обладает виктимным L3-кешем объёмом 19,25 Мбайт, что на 40 % превышает размер кеша в прошлом десятиядерном процессоре, Core i9-7900X. Базовая частота новой модели при этом увеличилась с 3,3 до 3,5 ГГц, но максимальная частота Core i9-9900X в турборежиме может доходить до тех же 4,5 ГГц, которые были доступны и десятиядернику прошлого поколения. В обоих случаях достижение отметки 4,5 ГГц требует использования технологии Turbo Boost Max 3.0, с традиционным же турборежимом максимальной частотой для Core i9-9900X является 4,4 ГГц.
Впрочем, на практике ситуация с частотами Core i9-9900X складывается несколько иначе. При нагрузке на все ядра процессор работает на частоте 4,1 ГГц.
Если эта нагрузка задействует AVX-инструкции, частота процессора снижается до 3,8 ГГц.
А наиболее ресурсоёмкие 512-битные инструкции из нового набора AVX-512 при полной нагрузке на все ядра заставляют процессор сбавлять обороты до 3,4 ГГц, что, надо заметить, даже ниже объявленной в спецификациях номинальной частоты.
Если говорить о десятиядерном Core i9-9820X, который стоит на ступеньку ниже, то он отличается от своего старшего собрата главным образом объёмом кеш-памяти третьего уровня, которая у него урезана до 16,5 Мбайт. Немного ниже и паспортные частоты, однако не нужно забывать, что все HEDT-процессоры компании Intel имеют свободные множители, что позволит энтузиастам проигнорировать этот недостаток.
Тем не менее номинальная частота Core i9-9820X – 3,3 ГГц, а максимальная частота в турборежиме – 4,1 или 4,2 ГГц в зависимости от того, идёт ли речь о технологии Turbo Boost 2.0 или Turbo Boost Max 3.0.
На практике при эксплуатации процессора с настройками по умолчанию и нагрузке на все ядра Core i9-9820X способен работать на частоте 4,0 ГГц.
Если нагрузка использует AVX-инструкции, процессор снижает частоту работы до 3,8 ГГц.
А в режиме AVX-512 частота Core i9-9820X падает до номинала – 3,3 ГГц.
Говоря о том, чем новые десятиядерные LGA2066-процессоры лучше старого Core i9-7900X, нельзя не напомнить о свершившемся в них переходе на использование более эффективного внутреннего термоинтерфейса. Теплорассеивающая крышка теперь припаяна к кристаллу аналогично тому, как это сделано в Coffee Lake Refresh. Intel говорит, что за счёт этого новые процессоры эффективнее охлаждаютсяи работают на более низких температурах, однако существует два но. Во-первых, используемый Intel припой не вызывает особого восторга в рядах оверклокеров, поскольку он менее эффективен, чем жидкий металл. И во-вторых, теперь для большинства энтузиастов оказалась недоступна процедура скальпирования: снять крышку, не повредив процессор, стало очень сложно, поэтому улучшить имеющийся термоинтерфейс крайне затруднительно.
В завершение рассказа о характеристиках Core i9-9900X и Core i9-9820X стоит упомянуть и о ценах. Здесь Intel не стала проявлять какую-либо фантазию и установила стоимость старшего десятиядерника Core i9-9900X в те же $989, которые она просила за процессор Core i9-7900X, относящийся к прошлому поколению. Но зато Core i9-9820X стоит на $100 дешевле, что делает его более привлекательным предложением для энтузиастов, ведь меньший на 15 % L3-кеш вряд ли как-то сильно скажется на производительности, а номинальные тактовые частоты для настоящих энтузиастов высокой производительности не имеют никакого значения.
⇡#Тестовая платформа: материнская плата MSI MEG X299 Creation
Представители семейства Skylake-X Refresh прекрасно работают в старых LGA2066-материнских платах на наборе системной логики X299, которые были выпущены ещё в 2017 году. Однако некоторые из производителей материнок всё же решили освежить свои предложения. Например, компания MSI предложила MEG X299 Creation – новую LGA2066-платформу верхнего уровня с рекомендованной ценой в районе $600. Именно её мы решили выбрать в качестве основы тестовой системы, посчитав, что новые процессоры логичнее тестировать в новом окружении.
Концептуальное преимущество MSI MEG X299 Creation перед более ранними продуктами заключается в том, что в её дизайне учтён накопившийся полуторалетний опыт эксплуатации платформы LGA2066. Поэтому в этой плате серьёзно усилен конвертер питания процессора, что делает её хорошо подходящей как для старших многоядерных Skylake-X прошлого поколения, так и для новых процессоров девятитысячной серии, которые увеличили свои энергетические аппетиты.
Кроме того, последние тенденции таковы, что геймеры теряют интерес к платформе LGA2066, поскольку более доступные системы, построенные на процессорах в LGA1151v2-исполнении, предлагают более чем достаточное для игровых применений количество ядер. В результате LGA2066 планомерно становится экосистемой с явной ориентацией на рабочие станции, и MSI MEG X299 Creation учитывает такую перемену специфики, предлагая возможности, которые в первую очередь востребованы у профессиональных создателей контента, а не у геймеров.
В модельном ряду MSI уже существует похожая по характеристикам материнская плата MSI MEG X399 Creation для процессоров Ryzen Threadripper. Попавшая же в наши руки MEG X299 Creation является её аналогом, но для HEDT-процессоров Intel. Поэтому ещё до того, как коробка с платой была вскрыта, мы уже знали, к чему примерно стоит готовиться. Это должна была быть максимально нафаршированная платформа с прицелом на поддержку всех новейших интерфейсов и расширенными возможностями в области организации систем хранения данных. И естественно, такая плата просто обязана иметь привлекательное внешнее оформление и быть выполненной в увеличенном форм-факторе E-ATX (305 × 272 мм).
Главная фишка платы, которая тотчас же бросается в глаза, – наличие сразу трёх 8-контактных разъёмов питания, подчёркивающих усиленную схему питания. Однако все их задействовать не обязательно: плата может работать с подключением одного или двух кабелей. Сразу три разъёма могут потребоваться лишь в исключительных случаях: например, при разгоне 18-ядерного Core i9-9980X.
Конвертер питания процессора – предмет особой гордости разработчиков MSI MEG X299 Creation, поскольку он собран в расчёте на самые прожорливые процессоры. Используется схема с 12 фазами на процессор, одной фазой VCSSA и ещё одной вспомогательной фазой VCCIO. Все греющиеся элементы конвертера закрыты массивным двухсекционным радиатором сложной формы со встроенной тепловой трубкой. Такого охлаждения должно быть более чем достаточно для обеспечения работы всех силовых элементов в благоприятном режиме.
Каждая фаза конвертера питания собрана на базе интегрированной DrMOS-сборки Infineon TDA21472 с максимальным током до 70А, что означает способность платы подать на процессор ток до 840 А — уровень, который вряд ли будет затребован даже 18-ядерным процессором в самом адском разгоне. В связке с этими элементами работают надёжные полимерные конденсаторы, рассчитанные на десятилетний срок службы, и катушки TITANIUM CHOKE II с повышенным КПД и низким эквивалентным последовательным сопротивлением. Управляет же всей схемой питания в совокупности 8-фазный ШИМ-контроллер International Rectifier IR35201, и это означает, что в конвертере используются умножители фаз.
Впрочем, не нужно думать, что на MSI MEG X299 Creation можно также обнаружить и обилие оверклокерских органов управления. В действительности их число ограничено базовым набором: есть аппаратные кнопки Power и Reset, POST-контроллер, а также переключатель профилей разгона Game Boost. Также на плате имеется две микросхемы BIOS и переключатель, позволяющий выбрать активный чип. Никаких же более продвинутых инструментов плата не предоставляет, и это даёт понять, что перед нами не совсем оверклокерская плата, а скорее надёжная платформа для рабочей станции.
Процессорное гнездо LGA2066 на MSI MEG X299 Creation обрамлено с двух сторон группами по четыре слота DDR4 DIMM, для которых производитель обещает поддержку частот DDR4-4200 и выше. Таким образом, плата может принять до 128 Гбайт скоростной оперативной памяти. Также на плате предусмотрено четыре слота PCIe, подключенных напрямую к процессору. Эти слоты работают по схеме x16/ x0/ x16/ x8 либо x8/ x8/ x16/ x8 — в зависимости от того, задействуется ли второй слот. Кроме того, на плате есть и единичный слот PCIe x1, за работу которого отвечает набор системной логики.
Отдельного внимания заслуживает система охлаждения чипсета. Она имеет воистину гигантский размер и раскидывает свои «щупальца» в промежутки между слотами PCIe, где прикрывает слоты M.2, позволяя отводить тепло в том числе и от установленных в плату NVMe-накопителей. После демонтажа части радиатора можно убедиться, что плата позволяет разместить на себе сразу три M.2-накопителя, причём два из них могут иметь максимально габаритный форм-фактор 22110.
Ещё один массивный кожух скрывает заднюю кромку платы, где расположились не только внешние порты, но и выведенные на заднюю панель кнопки. Их две: сброс настроек CMOS и BIOS Flashback для перепрошивки BIOS без необходимости установки в плату процессора и памяти. Список же выведенных на заднюю панель интерфейсных разъёмов включает порт PS/2, шесть портов USB 3.1 Gen1, по одному порту USB 3.1 Gen2 Type-A и Type-C, пять позолоченных аналоговых 3,5-мм аудиогнёзд и оптический выход S/PDIF. Кроме того, тут же находятся два сетевых порта: гигабитный, за который отвечает контроллер Intel, и 2,5-гигабитный, реализованный через контроллер Realtek. По соседству установлен и беспроводной модуль Intel Wireless-AC 9260, благодаря которому к спецификациям платы добавляется поддержка 802.11ac и Bluetooth 5.0.
Что касается внутренних интерфейсов, то на MEG X299 Creation можно обнаружить восемь портов SATA 6 Гбит/с, порт U.2, два разъёма USB 3.1 Gen1 и разъём USB 3.1 Gen2.
Звуковой тракт на рассматриваемой плате собран на базе высококачественного кодека Realtek ALC1220 со всеми современными подходами и «присадками». Например, фронтальные выходы оснащены операционным усилителем TI OPA1652 с ультранизкими гармоническими искажениями, который обычно используется в аудиоустройствах высокого класса.
Помимо мощного конвертера питания и развитых возможностей расширения, MEG X299 Creation интересна и парой аксессуаров, которыми компания MSI решила дополнить свою плату. Во-первых, это – дочерняя карта M.2 Xpander-AERO, предназначенная для M.2-накопителей с интерфейсом PCI Express.
Устанавливаемая в полноскоростной слот PCIe 3.0 x16 карта M.2 Xpander-AERO разделяет шину на четыре слота M.2 с PCIe x4-интерфейсом, что позволяет не только подключить к системе большое количество NVMe-накопителей, но и сформировать из них RAID-массив. Одно из важных свойств M.2 Xpander-AERO – активная система охлаждения с алюминиевым радиатором и вентилятором TORX, похожая на кулер, применяемый в видеокарте GTX 1060 AERO ITX, и способная эффективно отводить тепло от установленных накопителей. Нельзя не отметить, что, кроме всего прочего, плата M.2 Xpander-AERO предлагает собственный температурный мониторинг установленных в неё накопителей, а также имеет собственную силовую схему, подключаемую к 6-контактному кабелю от блока питания.
Второй важный аксессуар – дочерняя карта THUNDERBOLT M3, которая добавляет к списку внешних интерфейсных разъёмов на MSI MEG X299 Creation два порта Thunderbolt 3 в виде USB Type-C. Стоит заметить, что на карте реализованы два входных порта DisplayPort, поэтому порты Thunderbolt 3 в данном случае получаются совершенно полноценными – в том числе с возможностью подключения внешних дисплеев.
Развитая функциональность и продуманный дизайн, безусловно, выделяют MSI MEG X299 Creation на фоне X299-материнок прошлого поколения. Но гораздо важнее, что эта плата отличается полностью предсказуемой работой. Разработчики сумели вложить в MEG X299 Creation весь накопленный опыт создания продуктов для экосистемы LGA 2066, и благодаря этому данная материнская плата смогла стать отличной платформой для тестирования новых десятиядерников. Она предлагает богатые и корректно работающие возможности для настройки и конфигурирования системы, обеспечивает полное раскрытие производительности Skylake-X, и что немаловажно, позволяет без каких-либо проблем разгонять такие процессоры, не создавая в процессе оверклокинга никаких дополнительных препятствий. Подробнее о разгоне на MEG X299 Creation мы расскажем в следующем разделе.
Произошедшее обновление процессоров Skylake-X не сделало их энергоэффективными или холодными. Скорее наоборот. Если судить по тем образцам, которые попали в наши руки, переезд десятиядерников на кристалл HCC ознаменовался увеличением номинального напряжения питания, что повлекло за собой рост энергетических и тепловых параметров во время работы. Например, при установках по умолчанию Core i9-9900X при полной нагрузке на все ядра использовал напряжение V
CORE на уровне 1,136 В, а его нагрев даже в не AVX-режиме достигал 74-75 градусов при использовании для отвода тепла достаточно продвинутой системы жидкостного охлаждения Corsair Hydro Series H115i с 280-мм радиатором.
Иными словами, переход на припой вместо термопасты внутри процессорной упаковки даёт не так много. И это вполне логично, ведь даже без всякого разгона практическое энергопотребление Core i9-9900X под нагрузкой доходит до 195 Вт.
Если учесть сказанное, совершенно неудивительно, что по разгонному потенциалу Core i9-9900X нельзя отнести к сколько-нибудь выдающимся чипам. Похоже, перевод этого CPU на кристалл HCC позитивной новостью для оверклокеров не станет. Ведь если раньше в десятиядерные Core i9-7900X попадали отборные кристаллы LCC, то теперь нам приходится иметь дело с отбраковкой HCC.
На практике всё это вылилось в то, что при разгоне Core i9-9900X для достижения стабильности хотя бы на частоте 4,4 ГГц напряжение питания пришлось повышать до 1,2 В. С более низким напряжением, как и при более высокой частоте, процессор не проходил тесты стабильности.
Показанные на скриншоте температуры достаточно далеки от 100-градусного предела, и кажется, что процессор можно было бы разогнать сильнее. Но на самом деле для того, чтобы исследуемый экземпляр заработал без нареканий на частоте 4,5 ГГц, напряжение нужно увеличивать до 1,25 В. Такой режим допустим, но нужно помнить, что в этом случае серьёзные проблемы с перегревом придётся решать при нагрузке, использующей AVX-инструкции. Поэтому от попыток выйти на следующую ступень по частоте пришлось отказаться.
Как и раньше, представители семейства Skylake-X при работе с векторными инструкциями демонстрируют исключительно высокое тепловыделение, поэтому при их разгоне приходится в обязательном порядке применять отрицательные поправки к коэффициенту умножения в случае исполнения AVX/AVX2- и AVX-512-команд. И даже при напряжении V
CORE, повышенном до 1,2 В, максимально возможной частотой при AVX2-нагрузке для нашего экземпляра Core i9-9900X оказалась 4,0 ГГц. А в случае перехода процессора на AVX-512-команды частоту пришлось ограничивать величиной 3,6 ГГц.
В конечном итоге частотная формула разгона Core i9-9900X приняла вид 4,4/4,0/3,6 ГГц (база/AVX2/AVX-512), что примерно на 5-7 % лучше предлагаемых номинальным режимом 4,1/3,8/3,4 ГГц.
Впрочем, не стоит думать, что разгон HEDT-процессоров малоэффективен. Это будет совсем не так, если основное внимание уделять не столько попыткам нарастить тактовые частоты ядер, сколько разгону Mesh-шины, обеспечивающей в Skylake-X межъядерные соединения. Для неё возможным оказывается куда более заметное увеличение частоты, которое положительно сказывается на производительности, ведь от её скорости прямо зависят латентности L3-кеша и контроллера памяти.
Например, у нашего Core i9-9900X внутренняя шина смогла без особых проблем разогнаться на треть – со штатных 2,4 до 3,2 Гц. Для этого потребовалось всего лишь увеличить напряжение на соответствующей части процессора до 1,15 В. О том же, насколько действенен такой разгон шины, можно судить по результатам теста AIDA64 Cachemem, которые мы сняли при работе Mesh-соединений на частотах 2,4 и 3,2 ГГц соответственно.
Результаты говорят сами за себя. После разгона внутренней шины латентность L3-кеша снизилась почти на 20 %, а задержки памяти оказались лучше исходных на 9 %, не говоря уже о росте показателей пропускной способности. Лучшего аргумента в пользу того, что оверклокинг Skylake-X следует начинать именно с увеличения частоты работы Mesh-соединений, пожалуй, и не найти.
В целом же напрашивается и ещё один общий вывод: разгон любых Skylake-X (и Core i9-9900X в том числе) – гораздо более сложный процесс, нежели оверклокинг процессоров в рамках экосистемы LGA1151v2. В платформе HEDT предусмотрено гораздо большее число значащих параметров, и подбор идеального их сочетания занимает немало времени. В качестве иллюстрации посмотрите, например, на список настроек, который нам в конечном итоге пришлось применить в BIOS материнской платы MSI MEG X299 Creation для достижения описанного выше результата: переключением пары параметров здесь дело не обходится.
Что же касается второго десятиядерного процессора нового поколения, Core i9-9820X, то его проверка на разгон дала немного лучшие результаты как в абсолютном, так и в относительном выражении. Оптимальной, на наш взгляд, формулой оверклокинга стало сочетание частот 4,6/4,1/3,6 ГГц (база/AVX2/AVX-512), достигаемое при напряжении питания V
CORE, установленном в 1,175 В. Частоту же межъядерных соединений, как и у Core i9-9900X, без каких-либо проблем удалось повысить до 3,2 ГГц.
Получается, что в нашем случае Core i9-9820X оказался более привлекательным для энтузиастов десятиядерным вариантом Skylake-X, который имело бы смысл выбрать не только из-за меньшей стоимости. Действительно, разгоняться такой CPU при удачном стечении обстоятельств способен даже лучше своего старшего собрата, и это с лихвой компенсирует больший по объёму L3-кеш в Core i9-9900X. К тому же именно Core i9-9820X является более оверклокерским «по духу» процессором. Ведь в том и заключается основная идея разгона: взять более дешёвый продукт и довести его характеристики до уровня выше старшей альтернативы. Core i9-9820X отлично вписывается в этот канон, ведь для нашего экземпляра удалось поднять частоту на 15 % выше заложенного производителем значения.
Тем не менее по итогам знакомства с парой представителей обновлённого модельного ряда Skylake-X можно заключить, что гонятся эти процессоры примерно так же, как и их предшественники. Никакого заметного прироста в достижимых при разгоне частотах не наблюдается ни за счёт нового термоинтерфейсного материала, ни за счёт перехода на техпроцесс 14++ нм. Ни о каких 5 ГГц, на которых могут работать удачные процессоры Coffee Lake Refresh, в случае Skylake-X речь не идёт даже близко.
⇡#Описание тестовых систем и методики тестирования
Основной вопрос, на который мы пытались ответить проведённым тестированием, заключается в том, как соотносится производительность двух процессоров, названия которых различаются лишь одной буквой, Core i9-9900K и Core i9-9900X. Подробное знакомство с тем, что представляет собой обновлённый десятиядерный Skylake-X, совсем не добавляет ясности, почему так получилось, что Intel поставила на одну ступень в иерархии восьмиядерник для платформы LGA1151v2 и десятиядерник для платформы LGA2066, различающиеся по стоимости более чем вдвое.
|Core i9-9900K
|Core i9-9900X
|
Ядра/потоки |8/16
|10/20
|
Базовая частота |3,6 ГГц
|3,5 ГГц
|
Максимальная частота турбо |5,0 ГГц
|4,5 ГГц
|
L2-кеш |8 × 256 Кбайт
|10 × 1 Мбайт
|
L3-кеш |16 Мбайт
|19,25 Мбайт
|
SIMD-инструкции |SSE4.2, AVX2
|SSE4.2, AVX2, AVX-512
|
Поддержка памяти |2 канала DDR4-2666
|4 канала DDR4-2666
|
Линии PCI Express |16
|44
|
Интегрированный GPU |UHD 630
|Нет
|
Сокет |LGA1151v2
|LGA2066
|
Технология производства |14++ нм
|14++ нм
|
TDP |95 Вт
|165 Вт
|
Цена |$488
|$989
Однако помимо двух главных героев в тестах приняло участие немалое количество интересных персонажей второго плана. Вместе с Core i9-9900X в рамках платформы LGA2066 были протестированы и два других десятиядерника из прошлого и нынешнего поколений, Core i9-7900X и Core i9-9820X. Десятиядерным процессорам Intel были противопоставлены 12- и 16-ядерные HEDT-процессоры компании AMD, Ryzen Threadripper 2920X и 2950X. Кроме того, в тесты мы включили не только массовый восьмиядерник Core i9-9900K, но и восьмиядерный Ryzen 7 2700X.
В конечном итоге список задействованных комплектующих выглядит так:
Все интеловские процессоры тестировались без отключения Multi-Core Enhancements, то есть с отсутствием каких-либо ограничений по энергопотреблению. Мы отдаём себе отчёт в том, что данный режим несколько расходится со спецификациями Intel, однако большинство пользователей волей-неволей использует процессоры именно так. Дело в том, что все без исключения производители материнских плат активируют функцию Multi-Core Enhancements по умолчанию, а некоторые даже прячут настройки для её отключения, и какого-либо перелома в этой тенденции не предвидится.
Процессор Intel Core i9-9900X был протестирован дважды: в своём номинальном состоянии и при разгоне по частотной формуле 4,4/4,0/3,6 ГГц (база/AVX2/AVX-512) с одновременным увеличением частоты внутренних Mesh-соединений до 3,2 ГГц.
В то время как тесты почти всех систем были проведены с памятью, работающей в режиме DDR4-3466, для Ryzen Threadripper частоту памяти приходилось понижать до 3200 МГц ввиду особенностей контроллера памяти этих процессоров.
Тестирование выполнялось в операционной системе Microsoft Windows 10 Enterprise (v1809) Build 17137.1 с использованием следующего комплекта драйверов:
Описание использовавшихся для измерения вычислительной производительности инструментов:
**Комплексные бенчмарки**: **Приложения**: **Игры**:
Во всех игровых тестах в качестве результатов приводится среднее количество кадров в секунду, а также 0,01-квантиль (первая перцентиль) для значений FPS. Использование 0,01-квантиля вместо показателей минимального FPS обусловлено стремлением очистить результаты от случайных всплесков производительности, которые были спровоцированы не связанными напрямую с работой основных компонентов платформы причинами.
И перед тем как перейти непосредственно к результатам тестов, приведём ещё одну небольшую, но любопытную таблицу с официальными ценами процессоров, которая позволит правильнее воспринимать приведённые дальше показатели производительности.
|AMD
|Intel
|Цена
|Удельная цена на ядро
|Core i9-9900X
|$989
|$99
|Core i9-7900X
|$989
|$99
|Core i9-9820X
|$889
|$89
|Ryzen Threadripper 2950X
|$799
|$50
|Ryzen Threadripper 2920X
|$649
|$54
|Core i9-9900K
|$488
|$61
|Ryzen 7 2700X
|$329
|$41
⇡#Производительность в комплексных тестах
По традиции знакомство с процессорами мы начинаем с тестирования в интегральных тестах. Бенчмарк SYSmark 2018 оценивает средневзвешенную производительность систем не в каких-то избранных приложениях, а комплексно, моделируя сценарии решения практических задач того или иного характера. Для оценки используются распространённые приложения офисного, творческого и вспомогательного характера: Acrobat Pro DC, Photoshop CC, Lightroom Classic CC, BowPad 2.3, CyberLink PowerDirector 15, FileZilla 3, Chrome 65, Excel 2016, OneNote 2016, Outlook 2016, PowerPoint 2016 и Word 2016.
Очевидно, что при данной постановке вопроса роль играет не только чистая однопоточная или многопоточная производительность CPU, но и его отзывчивость – время реакции на открытие и переключение приложений и смену контекста, что прямо связано с быстродействием подсистемы памяти и эффективностью кеширования. Поэтому результаты в SYSmark 2018 могут несколько отличаться от той картины, которую можно ожидать, исходя из представлений о том, что «больше ядер – лучше».
Недосягаемым лидером в SYSmark 2018 оказывается восьмиядерный Core i9-9900K, который опережает и десятиядерных представителей семейства Skylake-X, и ещё более многоядерные процессоры Ryzen Threadripper. Лишь в сценарии Creativity, посвящённом созданию и обработке цифрового контента, разогнанному Core i9-9900X удаётся приблизиться к Core i9-9900K. Иными словами, SYSmark 2018 отлично показывает, насколько серьёзен вопрос о целесообразности существования младших моделей LGA2066-процессоров.
Дополняют результаты, продемонстрированные процессорами в SYSmark 2018, показатели производительности, измеренные в синтетическом игровом тесте 3DMark Time Spy Extreme, который отличается качественной оптимизацией под многопоточность и современные наборы инструкций.
Из-за особенностей алгоритмов определяющее значение в нём имеет количество вычислительных ядер. Но тем не менее десятиядерному Core i9-9900X удаётся превзойти 12-ядерный Ryzen Threadripper 2920X. Достигнут этот результат благодаря тому, что новый десятиядерник Intel стал быстрее прошлого аналогичного процессора семейства Skylake-X на 4 % (по данным теста). Заметим также, что отрыв Core i9-9900X от почти полного тёзки Core i9-9900K в процессорном тесте 3DMаrk Time Spy составляет всего 4 %, несмотря на его 25-процентное превосходство в числе вычислительных ядер.
⇡#Производительность в приложениях
Это – центровой раздел настоящего тестирования, поскольку HEDT-платформы изначально и были предназначены для решения ресурсоёмких задач. И казалось бы, именно здесь должны раскрыться все сильные стороны новых десятиядерных Skylake-X. Но в реальности никаких выдающихся результатов мы так и не увидели.
Да, новый десятиядерный Core i9-9900X стал работать примерно на 11 % быстрее, чем прошлый десятиядерный LGA2066-процессор Core i9-7900X. И это закономерно: при обновлении Skylake-X выросли тактовые частоты и увеличился объём L3-кеша. Более того, теперь можно со всей уверенностью говорить о том, что Core i9-9900X подходит для рабочих станций явно лучше своего массового тёзки: его преимущество перед Core i9-9900K в ресурсоёмких приложениях оценивается в 20 %.
Но на самом деле всё это не столь важно на фоне того, какие предложения для HEDT-систем есть у конкурирующего производителя. AMD Ryzen Threadripper 2950X – этот тот процессор, который отправляет десятиядерные предложения Intel в глубокий нокаут, если речь идёт о выборе лучшей основы для высокопроизводительной рабочей станции. За счёт существенного превосходства в числе вычислительных ядер Ryzen Threadripper 2950X может предложить более высокое, чем у Core i9-9900X, быстродействие в большинстве ресурсоёмких задач. И при этом 16-ядерник компании AMD стоит заметно дешевле.
Рендеринг:
Обработка фото:
Работа с видео:
Перекодирование видео:
Компиляция:
Архивация:
Шифрование:
Шахматы:
Ещё полтора года тому назад, когда на рынок высокопроизводительных многоядерных платформ пришёл Skylake-X, стало понятно, что Intel больше не хочет видеть геймеров среди покупателей HEDT-процессоров. CPU, построенные на данном дизайне, стали демонстрировать при игровой нагрузке, мягко говоря, спорные результаты, серьёзно уступая и массовым Coffee Lake, и своим предшественникам поколения Broadwell-E.
Причины, по которым так произошло, лежат на поверхности: отказ от внутренней кольцевой шины в пользу межъядерных Mesh-соединений серьёзно повысил латентности при работе процессора с L3-кешем и с памятью, к чему современные игры относятся крайне отрицательно. В результате LGA2066-десятиядерники Skylake-X в игровых тестах смотрятся очень блекло. Все они серьёзно проигрывают массовому флагману Core i9-9900K и по показателям FPS приближаются к представителям семейства Ryzen, которые страдают примерно той же болезнью – недостаточной отзывчивостью внутренней шины.
Иными словами, Core i9-9900X и Core i9-9820X по сравнению с Core i9-7900X ничего не изменили. Рост объёма кеш-памяти третьего уровня совершенно не компенсирует медлительность Mesh-соединений, поэтому мы вынуждены продолжить рекомендовать не собирать геймерские конфигурации на базе платформы LGA2066.
Однако нужно сделать одну оговорку. Как видно по показателям, которые демонстрирует в тестах разогнанный Core i9-9900X, ситуацию с игровой производительностью можно немного поправить через оверклокинг. К счастью, частоту межъядерных соединений в Skylake-X удаётся повысить примерно на треть, и это даёт весьма заметный эффект. Если при работе в номинальном режиме Core i9-9900K опережает Core i9-9900X в игровых тестах в среднем на 18 %, то после разгона Mesh отрыв удаётся сократить более чем вдвое – до 8 %. Впрочем, по сути ничего не меняется. Core i9-9900K – прекрасный восьмиядерный геймерский процессор, и нет причин, по которым среднестатистическому пользователю-геймеру стоило бы засматриваться на процессоры для платформы LGA2066.
В высоком разрешении основная нагрузка начинает ложиться на графическую подсистему и влияние производительности процессоров на уровень FPS понижается. Однако даже при выборе 4K-разрешения видно, что игровой потенциал у HEDT-процессоров (как Intel, так и AMD) хуже, хотя в части игр скоростные показатели у Core i9-9900K, который на сегодня является лучшим вариантом для геймерской системы, и Core i9-9900X или Core i9-9820X примерно одинаковы. Тем не менее нужно иметь в виду, что при выходе графических карт следующих поколений с более высоким уровнем производительности разрыв в частоте кадров может оказаться гораздо более заметным.
Всё это значит лишь одно. Skylake-X – это совсем не про игры, они оптимальны только для работы над созданием и обработкой цифрового контента. Безусловно, при необходимости они смогут справиться и с игровой нагрузкой. Особой проблемы здесь нет, и Core i9-9900X или Core i9-9820X обеспечивают достаточно комфортный уровень быстродействия в играх, особенно если речь идёт о системах с мониторами с высоким разрешением и низкой частотой обновления экрана. Но, как показывают результаты тестирования, приобретать такие CPU имея в виду игры, совершенно нецелесообразно: затраты окажутся выше, а частота кадров – ниже.
⇡#Производительность при стриминге
Многие геймеры выбирают мощные процессоры, исходя из желания заниматься потоковой трансляцией. Поэтому мы добавили в тестирование ещё один игровой сценарий – стриминг силами процессора. На данный момент этот раздел носит пробный характер, но впоследствии, при наличии к таким тестам должного интереса, мы планируем его расширить.
В этот раз для тестов стриминга была использована одна игра, Far Cry New Dawn. За кодирование видеопотока отвечало популярное приложение Open Broadcasting System (OBS) Studio. В нём мы использовали программный кодер x264. Трансляция проводилась в разрешении 1920 × 1080 при частоте кадров 60 FPS и фиксированном битрейте 6 Мбит/с. В настройках кодирования выбирался профиль настроек качества medium.
Параллельный захват и кодирование изображения достаточно сильно нагружают процессор, и дополнительные ядра тут точно не помешают. Однако все участники тестирования продемонстрировали достаточную производительность: падение FPS на передающей стороне составило от 10 до 30 процентов. Процессоры Skylake-X как старого, так и нового поколения при этом относятся к числу неплохих вариантов – для них падение производительности составляет 16-17 %. Меньшее падение FPS показывают лишь 12- и 16-ядерные Ryzen Threadripper.
Безусловно, при стриминге нужно добиваться не только лучшего уровня FPS на передающей стороне, но и отсутствия выпадающих кадров. Впрочем, все протестированные процессоры никаких проблем с этим не испытывали и смогли обеспечить доставку до точки назначения 100 % кадров.
Если верить официальным спецификациям, то новые десятиядерные LGA2066-процессоры Core i9-9900X и Core i9-9820X могут потреблять на 18 % больше, чем предшествующие модели Skylake-X, и на 74 % больше по сравнению с восьмиядерным Core i9-9900K для платформы LGA1151v2. Однако практика в данном случае сильно расходится с теорией как минимум потому, что процессоры различных классов по-разному обращаются с тактовой частотой.
Несмотря на то, что производители платформ для процессоров Intel успешно «забили» на соответствие реального потребления паспортным параметрам TDP, повсеместно активируя функцию Multi-Core Enhancements, процессоры HEDT-класса всё равно используют пониженную частоту для AVX-режимов. Массовые же решения для платформы LGA1151v2 свою частоту при выполнении AVX-инструкций не снижают. Не снижают её и процессоры AMD, но они при работе с 256-битными векторными инструкциями выдают гораздо более низкую производительность, поскольку способны выполнять только по одной, а не по две FMA-команды за такт.
Всё это находит отражение в реальном потреблении платформ, которое приводится на графиках ниже. Они построены при помощи средств мониторинга блока питания Thermaltake Toughpower DPS G, который позволяет контролировать потребляемую и выдаваемую электрическую мощность. Диаграммы показывают полное потребление систем (без монитора), измеренное на выходе блока питания, то есть представляющее собой сумму энергопотреблений всех задействованных в системе компонентов. КПД самого блока питания в данном случае в расчёт не берётся. В качестве нагрузки при измерениях использовалась утилита Prime95 и тест Cinebench R20 в однопоточном и многопоточном режимах.
Хотя это и несколько удивляет, Core i9-9900X и Core i9-9820X оказываются не столь прожорливыми процессорами. После появления Core i9-9900K, энергетические аппетиты которого вышли на новый уровень, платформа Intel HEDT перестала быть чем-то запредельно энергоёмким. Да, системы на базе Skylake-X потребляют больше в состоянии простоя и при небольшой нагрузке, но в ресурсоёмких задачах они выглядят не такими уж и «печками».
Впрочем, в виду нужно иметь две вещи. Во-первых, здесь мы говорим лишь про десятиядерные Skylake-X, а это – младшие представители модельного ряда. Поэтому мощные схемы питания на LGA2066-платах, как, например, на MSI MEG X299 Creation, всё же нужны – 16- или 18-ядерные Skylake-X дадут совершенно иную картину потребления. И во-вторых, неожиданно оказывается, что старший десятиядерник Intel нового поколения превосходит по потреблению 12- и 16-ядерные процессоры AMD. А это позволяет заключить, что в HEDT-сегменте компании AMD удалось обойти своего конкурента по удельной производительности на каждый ватт затраченной энергии.
Вышедшие в конце прошлого года LGA2066-процессоры, которые Intel отнесла к девятитысячной серии Core i9, представляют собой не более чем легкое инкрементальное обновление тех Skylake-X, с которыми мы знакомы с 2017 года. Изменения не коснулись микроархитектуры, а затронули исключительно численные характеристики – рабочие частоты и объём кеш-памяти третьего уровня. Впрочем, чтобы реализовать задуманное, инженерам Intel пришлось пойти на кое-какие стратегические решения: отбросить практику использования кристалла LCC, перейти на крупный кристалл HCC даже в младших моделях Skylake-X Refresh, а также внедрить более эффективный внутренний термоинтерфейс. Но по сути это – лишь малозначительные детали, которые не обернулись никакими принципиальными изменениями в потребительских качествах HEDT-систем.
Действительно, Core i9-9900X оказался лишь примерно на 10 % быстрее предшествующего десятиядерника, Core i7-7900X. И хотя это позволило ему нарастить преимущество в ресурсоёмких приложениях перед своим тёзкой из массового сегмента, Core i9-9900К, примерно до 18 %, права говорить о том, что десятиядерные HEDT-процессоры существенно лучше более дешёвых LGA1151v2-восьмиядерников, это совсем не даёт.
Причин тут сразу несколько. Первая – это принципиально различная стоимость таких предложений. В то время как за Core i9-9900X с вас попросят порядка 1 000 долларов, LGA1151v2-восьмиядерник обойдётся вдвое дешевле.
Вторая причина кроется в особенностях архитектуры Skylake-X. В новых модификациях так и осталась нерешённой главная критическая проблема – высокая латентность внутренних Mesh-соединений, используемых для связи ядер, частей L3-кеша и компонентов северного моста. В итоге Core i9-9900X и Core i9-9820X вновь оказались процессорами, крайне плохо подходящими для применения в игровых сборках. Например, по частоте кадров в FullHD-разрешении Core i9-9900X отстаёт от Core i9-9900K на весьма заметные 15-20 %. Преимущество же в числе ядер, на которое очень любят ссылаться поклонники продукции AMD, здесь, очевидно, не сработает. Восьми ядер, которые предлагают Coffee Lake Refresh, для современных и перспективных игр будет, вне всяких сомнений, более чем достаточно.
Можно привести и третье обстоятельство. Десятиядерные HEDT-процессоры Core i9-9900X и Core i9-9820X, несмотря на смену внутреннего термоинтерфейса, на практике не смогли показать никаких улучшений и в части разгона. А это означает наличие у Core i9-9900К явного преимущества не только в игровой производительности, но и в частотном потенциале.
В итоге приходится признать, что рыночные перспективы Core i9-9900X и Core i9-9820X достаточно туманны. Данные процессоры не универсальны, и их использование может быть оправдано разве что в рабочих станциях, нацеленных на создание и обработку контента. Но при таком позиционировании десятиядерные Skylake-X не выдерживают никакой конкуренции с представителями семейства AMD Ryzen Threadripper, которые при заметно более низкой цене предлагают существенно большее число ядер и, соответственно, лучшую производительность.
Поэтому остаётся лишь признать, что платформа LGA2066, несмотря на свершившееся косметическое обновление, теряет свои позиции и становится малоинтересной для подавляющего большинства энтузиастов. Как показало исследование, младшие процессоры для этого процессорного разъёма стали практически бессмысленным приобретением из-за их недостаточной производительности и завышенной стоимости, и интерес среди Skylake-X могут представлять лишь CPU с 16 или 18 ядрами. Но их можно считать исключительно нишевыми продуктами из-за явно заградительной цены.
Иными словами, для того, чтобы вдохнуть жизнь в свою HEDT-платформу, Intel должна серьёзно пересмотреть номенклатуру процессоров, которую она для неё предлагает. И видимо, понимает это и сам микропроцессорный гигант. Ведь, по слухам, следующее поколение CPU для высокопроизводительных рабочих станций — Cascade Lake-X — будет представлено уже в начале лета на выставке Computex. |
984,821 | Обзор 37,5-дюймового ASUS Designo Curve MX38VC: модный монитор | ASUS MX38VC представили широкой публике еще летом 2017 года, но на прилавках модель появилась лишь через весьма продолжительный срок. Ее аналоги по основным характеристикам, мониторы LG 38UC99-W, Acer XR382CQK, ViewSonic VP3881, HP Z38c и Dell U3818DW (за полноту списка не ручаемся) поступили в продажу в том же 2017 году.
Это тестирование позволит увидеть, повлияла ли задержка с выводом модели в продажу на ее технические параметры, — аналог производства LG мы уже тестировали, так что нам есть с чем сравнить. Однако сразу можно отметить другой ощутимый плюс: если изначально цена на ASUS MX38VC была заявлена на уровне около 1 600 евро, то теперь она на три сотни скромнее (в ряде источников упоминаются и еще меньшие цены).
|
ASUS Designo Curve MX38VC
|
Экран
|Диагональ, дюймов
|37,5
|Соотношение сторон
|24:10
|Покрытие матрицы
|Полуматовое
|Стандартное разрешение, пикс.
|3840 × 1600
|PPI
|111
|Тип матрицы
|AH-IPS, изогнутая (радиус кривизны 2300R)
|Тип подсветки
|White LED
|Макс. яркость, кд/м
2 |300
|Контрастность статическая
|1000:1
|Количество отображаемых цветов
|1,07 млрд (8 бит + FRC)
|Частота вертикальной развертки, Гц
|52-75 (Adaptive-Sync/AMD FreeSync)
|Время отклика BtW, мс
|14
|Время отклика GtG, мс
|5
|Максимальные углы обзора, по горизонтали/вертикали, °
|178/178
|
Разъёмы
|Видеовходы
|2 × HDMI 2.0; 1 × Display Port 1.2; 1 × USB Type-C 3.1 (с поддержкой зарядки до 65 Вт)
|Дополнительные порты
|2 × USB 3.0 (поддержка Superspeed USB Charging); 2 × 3,5 мм (аудиовыход и аудиовход)
|Встроенные колонки: число × мощность, Вт
|2 × 10 (Harman Kardon с поддержкой Bluetooth)
|Дополнительно
|Беспроводная зарядка Qi (до 15 Вт)
|
Физические параметры
|Регулировка положения экрана
|Угол наклона (от -5 до +15°)
|VESA-крепление: размеры (мм)
|Нет
|Крепление для замка Kensington
|Да
|Блок питания
|Внешний
|Потребляемая мощность максимальная / типичная / в режиме ожидания (Вт)
|230 (мощность БП) / 55 / 0,5
|Габаритные размеры (с подставкой), мм
|896,6 × 490,3 × 239,7
|Масса нетто (с подставкой), кг
|9,9
|Ориентировочная цена
|€1 299
Очевидно, в мониторе применяется та же матрица LG LM375QW1-SSA1, что и в ранее выпущенных аналогах, — разнообразия экранов такой диагонали, радиуса кривизны и разрешения как-то не наблюдается.
От собратьев по матрице модель ASUS отличается дополнительными функциями: наличием беспроводной зарядки Qi в основании подставки монитора, а также поддержкой воспроизведения звука по интерфейсу Bluetooth (из упомянутых нами схожих моделей последнюю функцию поддерживает только монитор LG). Минусом же является минимальная функциональность подставки — только регулировка угла наклона, причем даже без возможности установки панели на VESA-совместимое крепление. Для модели такого ценового уровня это едва ли не неприлично. Впрочем, монитор относится к линейке с говорящим названием Designo Curve, в которой эргономика традиционно приносится в жертву дизайну.
Монитор поддерживает технологию адаптивной синхронизации кадровой частоты (AMD FreeSync первого поколения) в достаточно узком диапазоне − от 52 до 75 Гц — как при подключении по интерфейсу DP, так и при использовании HDMI.
Наконец, отметим небольшие нестыковки в технических параметрах между электронной версией руководства по эксплуатации и страницей модели на сайте производителя. В руководстве упомянута мощность динамиков в 13 Вт, а мощность зарядки Qi — 5 Вт, тогда как на странице модели — 10 и 15 Вт соответственно. В таблицу внесены значения со страницы продукта (полагаем, что неоднократно упомянутая информация на официальном сайте более актуальна).
⇡#
**Упаковка, комплект поставки, внешний вид**
Монитор поставляется в крупной картонной коробке, ощутимо превосходящей по размерам немалые габариты самого дисплея. На ее верхней грани имеются вырезы для удобства переноски.
На фасаде коробки в нижней части перечислены основные особенности монитора, выделяющие его среди прочих, выше размещены фотография и название монитора, логотип ASUS с фирменным девизом, а также значки дизайнерских наград, полученных моделью.
На другой стороне все то же самое — отличается лишь ракурс фотографии монитора и расположение подписей.
Комплект поставки ASUS MX38VC включает в себя:
В целом комплектацию можно назвать исчерпывающей — даже теоретически можно добавить только второй кабель HDMI.
Внешний блок питания, произведенный компанией Delta Electronics, выдает напряжение 19,5 В при силе тока до 11,8 А, что соответствует максимальной выходной мощности 230 Вт. Поскольку используется стандартный «ноутбучный» разъем питания, найти замену БП в случае необходимости будет несложно.
Монитор размещен в коробке в уже полностью собранном виде, что и не удивительно с учетом его неразборной в домашних условиях конструкции. Чтобы привести его в рабочее состояние, достаточно подключить внешний блок питания и интерфейсные кабели.
Смотрится ASUS Designo Curve MX38VC приятно: изящные линии основания с непривычным стеклянным оформлением (а также подсветкой при активной беспроводной подзарядке устройств), узкая нижняя рамка и отсутствие рамок по бокам и сверху.
Впрочем, безрамочным дизайн можно назвать довольно условно: широкие участки по краям — примерно в сантиметр шириной по бокам и еще больше вдоль верхней грани корпуса — не являются активной зоной матрицы экрана. С другой стороны, вряд ли найдется много желающих строить мультимониторные конфигурации из дорогих 38-дюймовых экранов, а в остальных случаях данная особенность не является существенным недостатком.
Подставка отличается минимальной функциональностью, обеспечивая лишь регулировку наклона экрана в диапазоне от -5 до +15°.
Не предусмотрена и установка панели экрана на VESA-совместимое крепление. Впрочем, в случае удаления подставки потерялось бы уникальное достоинство модели в виде размещенной в основании зарядки Qi.
Стеклянная поверхность основания со встроенной зарядкой Qi изначально защищена от царапин прозрачной наклейкой.
На поверхности монитор удерживается тремя крупными резиновыми опорами, которые вполне эффективно справляются со случайным скольжением, но не слишком препятствуют попыткам слегка повернуть монитор.
Для управления и настройки используются пятипозиционный мини-джойстик и две кнопки по сторонам от него. Назначение одной из них можно выставить по своему выбору.
Также имеется сигнальный светодиод, который можно отключить через меню.
В вырезах снизу можно рассмотреть динамики, несущие громкое имя компании Harman Kardon. Несмотря на высокую заявленную мощность, размер громкоговорителей весьма скромный. Звук по меркам встроенной акустики обеспечивается вполне достойный — достаточно громкий и детальный, без искажений на высокой громкости. При этом можно расслышать не только верхние и средние, но и нижние частоты. Однако, поскольку излучатели находятся близко от поверхности стола и направлены на нее, рассчитывать на общую естественность звучания не приходится.
Разъемы традиционно размещены на задней стороне монитора. По левую сторону от опорной «ноги» находятся гнездо питания, два видеовхода HDMI и разъем DisplayPort. Справа — порт USB Type-C, два порта USB 3.0 с поддержкой быстрой зарядки, линейный аудиовход и выход на наушники.
Расположение USB-портов явно намекает на то, что об их оперативном использовании — например, для подключения внешних накопителей — можно забыть. Да и для проводной зарядки гаджетов придется держать постоянно подключенными к монитору соединительные кабели.
Все разъемы наглядно подписаны сверху.
Из таблички со спецификациями можно узнать, что наш экземпляр монитора изготовлен в декабре 2018 года.
Сзади монитор выглядит не столь броско, но вполне аккуратно. Средняя часть «спины» прикрыта панелью из матового пластика с логотипом ASUS в верхней части, а по сторонам от этой врезки применен текстурированный пластик с квадратной насечкой.
Возможности укладки кабелей минимальны и ограничиваются лишь декоративной планкой, закрывающей панель с разъемами.
Матрица имеет полуматовое покрытие, достаточно успешно борющееся с бликами, без явно выраженных проявлений кристаллического эффекта.
Качество материалов и сборки не вызывает вопросов — впрочем, было бы удивительно, если бы в столь дорогом устройстве сэкономили на подобных мелочах. Пластик приятен на ощупь, зазоры минимальны, люфты отсутствуют, при попытке скручивания корпус монитора лишь слегка похрустывает, а более слабые воздействия попросту игнорирует.
При нажатии на мини-джойстик появляется меню с выбором пары быстрых действий (по умолчанию это включение/выключение питания или выбор входа), активируемых при помощи дополнительных кнопок управления. Повторное нажатие вызывает основное меню.
Недостатком можно назвать необходимость сделать два последовательных нажатия для доступа в основное меню. Конечно, когда монитор будет настроен в соответствии с предпочтениями пользователя, этот недочет будет уже не важен, но при частой работе с меню это откровенно раздражает.
На первой вкладке основного меню можно выбрать один из режимов изображения Splendid, различающихся изначальными предустановками и доступными для регулировки параметрами. Всего их восемь, включая sRGB.
Второй раздел отведен под настройку уровня фильтра синего цвета.
Третья вкладка меню отвечает за настройки цвета: яркость, контрастность, светимость, цветовую температуру и оттенок кожи. Не для каждого режима доступны все настройки — например, при выборе режиме sRGB вообще невозможно изменить ни один из этих параметров, даже яркость.
Отметим, что в списке настроек отсутствует гамма (хотя ее настройки, как показали наши измерения, различаются в разных режимах).
Следующий раздел включает еще несколько настроек изображения: четкость, время отклика (Trace Free), соотношение сторон, «улучшайзер» изображения VividPixel, динамическую контрастность и адаптивную синхронизацию.
В разделе установок звука можно выбрать уровень громкости, отключить звук, выбрать источник звука (в том числе воспроизведение через интерфейс Bluetooth) и режим звучания.
Очередной раздел меню посвящен настройкам функций PIP/PBP.
Предпоследний раздел меню позволяет выбрать активный видеовход.
Восьмой и последний раздел меню является наиболее насыщенным — он включает в себя системные настройки. На первой странице раздела можно включить деморежим Splendid, настроить игровые функции, включить экорежим, настроить работу портов USB и зарядки устройств (как проводной, так и беспроводной), сменить назначение правой дополнительной кнопки и настроить параметры экранного меню.
Игровые функции включают в себя возможность вывода прицела по центру экрана, таймера обратного отсчета и счетчика кадров.
На второй странице раздела можно выбрать язык интерфейса экранного меню, заблокировать кнопки на мониторе, посмотреть информацию о текущем режиме работы, настроить индикатор питания (в том числе и отключить его), заблокировать кнопку питания и сбросить настройки до заводских.
Хотя в списке доступных языков имеется и русский, качество перевода (невольно хочется добавить «машинного») оставляет желать лучшего, так что во избежание культурного шока рекомендуем пользоваться английским интерфейсом.
В целом же, если не считать неудачной локализации и необходимости двойного нажатия для входа в основное меню, система управления монитором вполне логична и удобна.
Монитор ASUS MX38VC был протестирован по несколько измененной методике при помощи колориметра X-Rite i1 Display Pro, программного комплекса Argyll CMS c графическим интерфейсом DisplayCAL и программой HCFR Colormeter. Все операции осуществлялись в Windows 10. Во время тестирования монитор был подключен по интерфейсу DisplayPort 1.2 к видеокарте GeForce GTX 1070 с актуальным на момент тестирования драйвером (активировано управление цветом при помощи стороннего ПО, прочие настройки — по умолчанию), частота обновления экрана в ходе тестирования составляла максимально доступные 75 Гц.
В соответствии с методикой мы измерим следующие параметры монитора:
Все описанные выше измерения проводились до и после калибровки. Во время тестов мы измеряем основные профили монитора: выставленный по умолчанию, sRGB (если доступен) и Adobe RGB (если доступен). Калибровка проводится в профиле, выставленном по умолчанию, за исключением особых случаев, о которых будет сказано дополнительно. Для мониторов с расширенным цветовым охватом мы выбираем режим аппаратной эмуляции sRGB, если он доступен. Перед началом всех тестов монитор прогревается в течение 3-4 часов, а все его настройки сбрасываются до заводских.
Также мы продолжим нашу старую практику публикации профилей калибровки для протестированных нами мониторов в конце статьи. При этом тестовая лаборатория 3DNews предупреждает, что такой профиль не сможет на 100% исправить недостатки конкретно вашего монитора. Дело в том, что все мониторы (даже в рамках одной модели) обязательно будут отличаться друг от друга небольшими погрешностями цветопередачи. Изготовить две одинаковые матрицы невозможно физически, поэтому для любой серьезной калибровки монитора необходим колориметр или спектрофотометр. Но и «универсальный» профиль, созданный для конкретного экземпляра, в целом может поправить ситуацию и у других устройств той же модели, особенно в случае дешевых дисплеев с ярко выраженными дефектами цветопередачи.
При тестировании монитора мы использовали интерфейс Display Port 1.2 как наиболее беспроблемный и полностью раскрывающий возможности дисплея. Для настройки и калибровки мы использовали пользовательский режим как предоставляющий полный спектр настроек изображения монитора.
По умолчанию настройки основных параметров выглядят следующим образом:
В ходе ручной настройки (100 кд/м
2 и 6500 К) параметры приняли следующий вид:
Основные изменения произошли в ходе правок значений яркости и усиления RGB.
⇡#
**Яркость белого, яркость черного, коэффициент контрастности**
Первоначальная проверка осуществлялась в установленном по умолчанию режиме Standard с заводскими настройками основных параметров.
|
Яркость в меню, % |
Яркость белого (кд/м 2) |
Яркость черного (кд/м 2) |
Статическая контрастность (x:1)
|100
|285,3
|0,3179
|897,4
|90
|262,9
|0,2919
|900,6
|80
|213,6
|0,2379
|897,8
|70
|170,3
|0,19
|896,4
|60
|133,9
|0,1493
|896,7
|50
|101,1
|0,1127
|897,6
|40
|73,5
|0,0818
|897,9
|30
|52,5
|0,0584
|897,8
|20
|37,1
|0,0414
|897
|10
|27,7
|0,0309
|895,8
|0
|25,3
|0,0282
|896,1
Полученные в процессе измерений значения яркости и контрастности не вызвали удивления: они почти точно совпадают с результатами, которые продемонстрировал монитор LG 38UC99-W (что лишний раз подтверждает предположение об аналогичной использованной матрице). Единственным ощутимым отличием, причем играющим в плюс рассматриваемой сегодня модели, стала вдвое меньшая светимость экрана при установленной минимальной яркости — всего 25 кд/м
2.
В целом же результаты измерений показали значения чуть ниже заявленных производителем (максимальная яркость 285 кд/м
2, контрастность около 900:1), но не настолько, чтобы называть это существенным недостатком.
В ходе тестирования мы провели измерения в стандартном режиме и в предустановленном режиме sRGB. Прочие предустановки изображения явно не направлены на точность цветопередачи, хотя в определенных условиях их использование вполне может быть оправданно. Например, режим Scenery дает более насыщенное изображение, которое многим понравится при просмотре кино, а режимы чтения и темной комнаты комфортны при отсутствии внешнего освещения.
Цветовая температура при стандартных настройках сдвинута в сторону холодных оттенков и немного превосходит уровень 7000 К.
Гамма-кривые пролегают выше эталонного уровня, при этом наибольшее отклонение демонстрирует зеленый цвет. Поскольку выбора предустановок гаммы в меню нет, исправить ситуацию способна только калибровка.
Тем не менее результаты теста Argyll нельзя назвать провальными. Серьезные отклонения наблюдаются только в области оттенков серого (что неудивительно с учетом неточной установки точки белого) и на чисто красном цветовом патче.
Приведение ручными настройками цветовой температуры к уровню 6500 К и светимости экрана к уровню 100 кд/м
2 практически не сказывается на гамма-кривых и области цветового охвата, но заметно улучшает качество настройки точки белого.
Ручные настройки привели к выставлению цветовой температуры в среднем чуть ниже целевого уровня 6500 К.
Оттенки серого сгруппированы не слишком плотно, образуя вытянутую дугу на диаграмме цветового охвата.
По результатам теста Argyll после ручной настройки можно отметить почти точное попадание в точку белого, но отклонения DeltaE в целом снизились весьма незначительно и остались за пределами допусков теста как по средним, так и по максимальным показателям.
Поскольку изменение любых настроек изображения в режиме sRGB заблокировано в меню, измерения проводились при фиксированном для этого режима уровне яркости, составившем, по нашим измерениям, 154,4 кд/м
2.
Цветовой охват практически не претерпел изменений по сравнению со стандартным режимом — выдающаяся за пределы треугольника sRGB область в районе красной вершины осталась на своем месте.
Цветовая температура оказалась значительно завышена относительно целевого значения 6500 К — похоже, настройка делалась на уровень 7300 К.
Точка белого ожидаемо существенно отклоняется от целевого значения, но отметки оттенков серого по большей части расположены весьма плотно.
Гамма-кривые, в отличие от того, как это выглядело в стандартном режиме, практически совпадают с эталонной кривой.
В тесте Argyll можно отметить резкое снижение среднего отклонения DeltaE, которое укладывается в рекомендованные допуски. Однако точка белого настроена неудачно, и максимальное отклонение DeltaE на чисто красном цветовом патче осталось очень высоким.
В целом настройку режима sRGB можно было бы назвать очень хорошей, если бы не явно завышенная цветовая температура в сочетании с невозможностью подстроить ее через меню монитора.
Калибровка в режиме Standard практически не сказалась на цветовом охвате.
После калибровки охват пространства sRGB составил 99,3 %, а пространства AdobeRGB — 73,2 %.
Цветовая температура после калибровки вплотную приблизилась к целевому значению 6500 К.
Положение точки белого мало отличается от того, каким оно было при ручной настройке, но оттенки серого разместились куда более плотной группой с меньшим отклонением от целевого значения.
Гамма-кривые после калибровки вплотную приблизились к эталонной кривой.
По результатам теста Argyll, все показатели уложились не просто в допустимые, а в рекомендованные значения — причем с хорошим запасом. Можно с уверенностью утверждать, что после калибровки монитор ASUS MX38VC отлично подходит для работы с цветом (конечно, если требования не выходят за рамки цветового пространства sRGB). Однако без калибровки, даже при условии ручной подстройки параметров, для работы с изображениями монитор выглядит не самым удачным выбором.
Равномерность подсветки дисплея проверялась после снижения яркости в центральной точке монитора до уровня 100 кд/м
2 и установки цветовой температуры ~6500 кельвин.
Картинка выше демонстрирует фотографию белого поля при определенной экспопоправке в ходе съемки (в темноте) и дальнейшей программной обработки для более наглядного представления равномерности подсветки.
Хорошо заметна меньшая яркость вдоль краев экрана (что, впрочем, вполне типично), больше всего это бросается в глаза вдоль верхней грани. В левой части экрана можно обнаружить паразитные желтоватые оттенки.
При измерении яркости по 45 точкам среднее отклонение от центральной точки при яркости 100 кд/м
2 составило 7,03 %, а максимальное превысило 22% — результат достаточно близкий к тому, что показал в свое время LG 38UC99-W.
Однако в случае с ASUS MX38VC можно отметить зону со светимостью намного выше центральной точки в нижней части правой трети экрана (именно на эту зону приходится максимальное отклонение от центральной точки). Да и в целом можно видеть, что светимость экрана растет от минимальной в верхней части до максимальной в нижней.
Отклонения цветовой температуры в единицах DeltaE00 с учетом большого размера экрана выглядят умеренно. Среднее отклонение составляет 2,23, а максимальное — 4,47 единицы (причем максимальные отклонения относятся к тем же двум точкам измерения, в которых отмечена наибольшая яркость экрана).
На темном фоне можно отметить достаточно явную засветку по углам у нашего экземпляра монитора. Наиболее очевидная засветка находится в верхнем правом углу, по нижнему же краю экрана площадь засветок невелика. В целом картина достаточно близка к той, которая показана основанным на той же матрице монитором LG 38UC99-W.
⇡#
**Качество градиентов и скорость отклика**
Качество отображения градиентов не вызывает значительных нареканий. Калибровка не оказывает заметного влияния на итоговый результат.
Скорость отклика матрицы заявлена на уровне 5 мс, что вполне типично для IPS-матриц с функцией компенсации времени отклика. Доступно шесть режимов быстродействия (предустановки Trace Free от 0 до 100 с шагом 20). Отметим также, что ASUS MX38VC не поддерживает функцию Motion Blur Reduction или какой-либо ее аналог, в отличие от ряда основанных на той же матрице моделей мониторов.
Разница между первыми четырьмя режимами невелика, а артефакты разгона матрицы в них практически отсутствуют. При выставлении значения 80 шлейфы уменьшаются, но начинают незначительно проявлять себя артефакты разгона. При максимальном значении 100 уровень артефактов RTC становится просто чудовищным — это значение мы точно не можем рекомендовать к использованию.
По умолчанию выставлено значение Trace Free 60, но, по нашему мнению, хотя при взгляде на фото это не слишком очевидно, оптимальным вариантом является 40 — при этом значении разгона матрицы визуально шлейфы за движущимися объектами на тестовой странице были наименьшими, причем разница с соседними режимами была заметна даже на глаз.
В целом скорость отклика вполне типичная для современных IPS-матриц с обычной частотой обновления, но ниже, чем у специализированных геймерских решений.
Впрочем, поддерживаемая частота обновления в родном разрешении тестируемого монитора пусть и ненамного, но выше обыденных 60 Гц — до 75 кадров в секунду, причем с поддержкой адаптивной синхронизации AMD FreeSync для владельцев соответствующих видеокарт (правда, в весьма узком диапазоне — от 52 до 75 Гц).
Пропуска кадров на частоте обновления 75 Гц при работе с видеокартой NVIDIA не зафиксировано, что выгодно отличает ASUS MX38VC от уже знакомой нам модели LG на основе аналогичной матрицы.
При незначительных изменениях угла просмотра в горизонтальной плоскости картинка на экране совсем не меняется. Если увеличить угол до 30-45 градусов, то изображение становится чуть менее контрастным, немного снижается насыщенность некоторых цветов, слегка высветляются тени, появляются паразитные оттенки в той или иной части экрана. При изменениях в вертикальной плоскости картинка на экране портится быстрее. В целом вполне типичная картина для IPS-матриц.
Glow-эффект у ASUS Designo Curve MX38VC выражен относительно слабо, как и у его уже нам знакомого собрата по используемой матрице. При типичном положении пользователя перед монитором даже на темном фоне он практически не беспокоит, а при взгляде под более острым углом хоть и становится явно заметным, но раздражающие паразитные оттенки не слишком бросаются в глаза.
⇡#
**Кристаллический эффект, Cross-hatching, ШИМ**
В мониторе ASUS MX38VC используется матрица с полуматовой защитной поверхностью, которой не свойственен явно выраженный кристаллический эффект, — и данная модель не является исключением из общего правила. Эффекту Cross-Hatching монитор также не подвержен.
По заявлениям производителя, дисплей обладает Flicker-Free-подсветкой, что и было подтверждено в ходе наших тестов. При любом уровне яркости ШИ-модуляция не используется либо ее частота составляет несколько килогерц или даже десятки килогерц.
*С файлового сервера 3DNews.ru можно скачать цветовой профиль для этого монитора, который мы получили после калибровки* *.*
Если описать наши впечатления от монитора ASUS Designo Curve MX38VC предельно сжато, то перед нами модель с оригинальным дизайном, несколько непривычными, но вполне комфортными размерами и разрешением экрана, необычной дополнительной функциональностью и не самой лучшей заводской настройкой.
Основные параметры матрицы (яркость, контрастность, углы обзора, время отклика) вполне типичны для IPS-дисплеев последних лет. Время отклика позволяет использовать монитор в играх, но, конечно, для соревнований на профессиональном уровне желательно иметь что-то более быстрое и с более высокой частотой обновления. После калибровки ASUS Designo Curve MX83VC вполне пригоден для работы с цветом, если требования к цветопередаче ограничиваются пространством sRGB.
Оригинальная внешность, беспроводная зарядка стандарта Qi и воспроизведение звука по Bluetooth — основные отличия модели от достаточно многочисленных аналогов, успевших попасть на прилавки раньше. Однако цена ASUS Designo Curve MX83VC (как, впрочем, и других вариантов на той же матрице) заметно выше, чем у схожих по функциональности 34-дюймовых моделей с разрешением 3440 ×
Итоговый вывод: ASUS Designo Curve MX38VC — модель на любителя, которому приглянулся дизайн, а также возможность беспроводной зарядки гаджетов и 1600 пикселей по вертикали.
**Достоинства:** **Недостатки:** **Может не устроить:** |
984,891 | Google Stadia — стриминговый мир будущего. И это будущее отнюдь не безоблачно | 21 марта 2019 года войдет в историю. На GDC 2019 компания Google представила свое видение будущего развлекательной индустрии. Имя ему — Stadia. По мнению интернет-гиганта, будущее это заключается в стриминге. Хотя не он первый об этом подумал.
Пытались ведь многие. Взять хотя бы Gaikai. На GDC 2009 Дэвид Перри (David Perry) заявил, что будущее за облачными вычислениями, а физическое распространение контента умрет быстрее, чем мы думаем. Предсказание не сбылось по сей день. Несмотря на все уверения, что интернет уже достаточно развит, платформа не «взлетела»: далеко не каждый разработчик/издатель был готов отдать свое детище в облако, а задержка даже при хорошем качестве соединения оставляла желать лучшего. Комфорт и простота игры на ПК и консолях для облака были недосягаемы. Однако Gaikai не канула в небытие, а была выкуплена Sony и стала основой для PlayStation Now, которая работает и по сей день. К сожалению, не в России.
Но снова вернемся в прошлое. В 2009 году, одновременно с Gaikai, на той же GDC анонсировали OnLive. Помимо собственно сервиса, разработчики предлагали и миниатюрную приставку, благодаря которой в принципе отпадала необходимость в наличии ПК. Судьба платформы аналогична судьбе Gaikai — ее купила Sony. Но если последняя переродилась в Playstation Now, то OnLive просто тихо закрылась. Забегая вперед, замечу, что некоторые ее идеи вернулись в Stadia: режим «картинка в картинке» или записи интересных моментов, которые тут же можно опубликовать.
И это не говоря уже о претендентах поменьше, например об отечественной Playkey. Хотя тут, понятно, ни о каких революционных технологиях и всемирном охвате речи не идет — масштабы не те. Оригинальное видение предлагает израильская Playcast, использующая для передачи данных не интернет, а сети кабельного телевидения. К сожалению, о ней с трудом можно найти какую-то информацию, кроме того, что она жива.
В начале десятилетия именно OnLive и Gaikai двигали вперед облачные игровые решения. Это была ухабистая дорога, на которой красивые обещания столкнулись с техническими ограничениями и качеством подключения у конечных пользователей. Однако первые сервисы сделали главное — показали, что подобное вообще возможно. Надо только подождать развития Всемирной сети и игрока покрупнее.
Зубр масштаба Google взялся за тему впервые. И именно благодаря огромным ресурсам и технической инфраструктуре, охватывающей весь мир, у Stadia может получиться то, что не получилось у предшественников. Тысячи дата-центров с миллионами серверов — если Google не сможет воплотить игру в облаке в реальность, то кто?
Но если она сможет, то это, безусловно, перевернет наше представление о том, как мы потребляем игры. В первую очередь, конечно, еще сильнее сократится время доставки продукта до нас с вами. Современные проекты занимают немало места на жестком диске — размеру в полсотни гигабайт уже не удивляешься. Всю свою библиотеку на своем накопителе не уместить, а пока скачаешь нужную игру, пройдет несколько часов. И даже если вы купили диск, никуда не деться от патчей первого дня, тоже отнюдь не маленьких. Stadia решает обе проблемы: увидел игру — нажал «Играть» — и вперед. У пользователя всегда есть доступ к самой актуальной версии, было бы интернет-подключение.
Но Google хочет пойти дальше быстрого доступа к игре. В первую очередь невероятные возможности открываются в плане мультиплеера. Облако — это место для объединения сотен и тысяч людей. Согласитесь, интересная мысль для королевских битв. На карте масштаба какой-нибудь большой MMORPG и с тысячами пользователей можно устроить незабываемые сражения. Сейчас подобный размах может обеспечить лишь EVE Online, но тамошние колоссальные битвы тысяч кораблей из-за высокой вычислительной нагрузки превращаются чуть ли не в пошаговые сражения.
Поэтому для каждого пользователя Stadia на «той стороне» будет выделена как минимум одна машина с вычислительной способностью более 10 Тфлопс — в полтора раза мощнее Xbox One X. Именно «как минимум» — для обработки сложных визуальных сцен или имитации продвинутой физической модели в работу могут включиться дополнительные станции. Google обещает, что технические характеристики пользовательских систем перестанут быть барьером для разработчиков.
Stadia много внимания уделяет создателям — как игр, так и околоигрового контента. Один из инструментов позволяет, например, парой кликов применить к созданной геометрии выбранный художественный стиль. Искусственный интеллект на базе машинного обучения тут же разукрасит ваш мир, основываясь на загруженной картинке. Магия! Удивительные возможности ждут любителей стримить игру. Stadia позволит по нажатию кнопки передать управление одному из зрителей, подключить его к своей игре или поделиться «слепком» игрового момента, который другие пользователи смогут не просто посмотреть, а запустить и пройти самостоятельно. Таких «или» намечается немало.
Звучит фантастично, но на то она и первоначальная презентация — Google обрисовала безграничные возможности с колоссальным заделом на будущее. И придет это будущее не когда-нибудь, а уже в этом году. Презентация настолько удивила, что некоторые закономерные вопросы даже вылетели из головы. Однако, охладив пыл, уже можно подумать и о потенциальных трудностях, которые как-то придется преодолевать.
Самый очевидный вопрос: какое качество соединения необходимо? Речь не только и не столько про скорость, сколько про стабильность. Игра — это не готовое видео, буферизация при загрузке тут не поможет. Отклик должен стремиться к мгновенному, и любые перебои или артефакты потока тут же испортят впечатление. Digital Foundry протестировала текущую версию Stadia в Assassin’s Creed Odyssey через подключение по Wi-Fi, и стабильный показатель отклика колебался в районе 166 мс. Для сингловой игры, даже динамичной, —нормально, но вот для соревновательных мультиплеерных проектов это едва ли приемлемо.
А обладатели тарифов с лимитированным трафиком вообще могут сразу проходить мимо. Да, Stadia обещает вывод вплоть до 4К при 60 кадрах/с, но в таком режиме часовое потребление трафика составляет 20 Гбайт! Пока одолеешь босса в Dark Souls, половину месячного резерва потратишь. Проблема кажется надуманной только с высоты дешевого безлимитного интернета в России — на Западе, куда Google в первую очередь целится со своей платформой, стоимость доступа заметно выше, а лимитированные тарифы гораздо более распространены.
Кстати, о ценах — что с оплатой? На этот вопрос компания ответит позже, но, вероятно, это будет несколько вариантов подписки с разным уровнем доступа: чем лучше ты хочешь качество, тем больше мощностей на тебя потратит Google, тем выше окажется цена. Если фантазировать, то интересно выглядел бы конструктор: хочу 1080p и 60 кадров в секунду, да не больше 50 часов в месяц, — индивидуальный подход к каждому! Интересно, будет ли бесплатный режим? Наслаждаешься кровавым угаром в DOOM Eternal, и вдруг прямо посреди действия включается десятисекундная реклама кошачьего корма. А-А-А-А-А, RIP AND TEAR!
И не отобьют ли невиданные мощности всякое желание оптимизировать код? Разработчики и так несколько «разбалованы»: актуальные проекты, выдающие такую же картинку, как игры пятилетней давности, могут требовать вдвое более мощное железо. Рынок полон видеокарт и быстрой памяти, которые потянут, так зачем напрягаться?
Чуть выше я не зря написал, что мы будем «потреблять игры». С доступностью в один клик иначе это не назовешь. А как же те самые ламповые ритуалы? Когда пришел домой с заветной коробочкой, вставил диск в привод, замер в предвкушении — ну вы меня поняли. С переходом от коробок к цифровым магазинам часть этого милого сердцу священнодействия уже отвалилась, а при переходе к облаку хрупкая иллюзия того, что мы владеем купленными играми, окончательно разрушится. Любые проблемы с подключением — и мы тут же лишаемся всей нашей библиотеки. Да она и не наша уже, кого мы тут обманываем.
Когда-то игры не воспринимались всерьез, но одновременно с этим сообщество геймеров было сродни закрытому клубу, междусобойчику для своих. Со временем барьер размывался все сильнее, а Stadia окончательно снесет его обломки. Да, я прекрасно понимаю, что это напоминает старческое брюзжание человека, для которого знакомство с играми началось с картриджей для Dendy и установки Commander Keen и Doom с пачки дискет. Но куда деваться — возраст.
Будущее прекрасно тем, что оно наступит когда-то, а пока можно пожить привычной жизнью. Но только в случае со Stadia это будет не «когда-то», а уже сейчас, в этом году. Google однозначно встряхнет рынок, и это одновременно и воодушевляет, и пугает.
Впрочем, такая объемная и неповоротливая машина, как современная игровая индустрия, не сменит курс мгновенно. Консоли в своем классическом виде проживут как минимум еще одно поколение, игровые ПК все так же будут собирать, а значит, и сами игры будут создаваться с прицелом на стационарные системы. Уж кто только не «убивал» традиционные платформы за все время их существования, а они и ныне живее всех живых!
А это значит, что невероятные мощности и сетевые возможности Stadia на первых порах задействуют вполсилы. Весь потенциал платформы раскроют эксклюзивы, которые готовит новое игровое подразделение Google — Stadia Games and Entertainment.
*** * ***
Как бы то ни было, мы живем в интересное время. Впервые за долгие годы не получается с уверенностью предсказать, что будет дальше. Такой революции рынок не видел, наверное, со времен самого первого поколения консолей. Даже без погружения в технические подробности, на поверхностном уровне, Stadia кажется колоссальным явлением. Посмотрим, что принесет это явление. |
984,978 | Sekiro: Shadows Die Twice — верный воин, цветущая сакура. Рецензия | |
Жанр |Экшен
|
Издатель |Activision
|
Издатель в России |«СофтКлаб»
|
Разработчик |FromSoftware
|
Минимальные требования |Процессор Intel Core i3-2100 3,1 ГГц/AMD FX-6300 3,5 ГГц, 4 Гбайт ОЗУ, видеокарта с 2 Гбайт памяти и поддержкой DirectX 11, например NVIDIA GeForce GTX 760/AMD Radeon HD 7950, 25 Гбайт на жестком диске, интернет-соединение и учетная запись в Steam
|
Рекомендуемые требования |Процессор Intel Core i5-2500K 3,3 ГГц/AMD Ryzen R5 1400 3,5 ГГц, 8 Гбайт ОЗУ, видеокарта с 4 Гбайт памяти и поддержкой DirectX 11, например NVIDIA GeForce GTX 970/AMD Radeon RX 570
|
Дата выхода |22 марта 2019 года
|
Возрастной ценз |от 18 лет
|
Платформы |PC, PlayStation 4, Xbox One
|
Официальный сайт *Игра протестирована на PlayStation 4*
Скромному Хидетаке Миядзаки стоит сказать спасибо за то, что ему хватило смелости не продолжать (по крайней мере, пока) популярную серию Dark Souls, оставившую значительный след в индустрии. Поджанр наверняка ещё не один год будет пополняться духовными наследниками разной степени толковости, поэтому желающие играть в одно и то же вряд ли заскучают. Сейчас же настало время двигаться дальше. Sekiro: Shadows Die Twice сохранила некоторые привычные черты «соулсов», но она всё равно сильно отличается от того, что делала FromSoftware последние десять лет.
В первую очередь изменения коснулись сюжета. Главный герой теперь — не обычная болванка, а прописанная личность, преданный своему мастеру синоби. NPC больше не разговаривают загадочными безумными полунамёками, а подача повествования переключилась с описания предметов и крошечных обрывков истории на более привычные заставки и беседы с ключевыми персонажами. Последних здесь особенно много, причём они щедро делятся подсказками и полезной информацией, позволяющей понять суть происходящего и направление дальнейшего движения. Главное — не забывать наведываться к героям почаще и развязывать некоторым язык с помощью разных сортов саке.
Действие из фэнтезийных замков перебралось в феодальную Японию периода Сэнгоку — и свежо, и очень красиво. Пусть игра лишилась величественных видов разрушенных королевств, но большинство локаций собраны с огромной любовью к тому времени и смотрятся очень аутентично. Особенно выделяется грозная крепость Асина и живописные места под конец игры, с водопадами и сакурой. Правда, иногда однорукого ниндзя всё-таки запирают в скучных серых подземельях или заставляют прыгать по невзрачным горным склонам, но это в порядке исключения — всё остальное в эстетическом плане выполнено замечательно.
Прокачка тоже интересно переделана. Повышение мощности атаки, к примеру, возможно лишь после победы над определёнными боссами и получения их «воспоминаний». Увеличить здоровье и запас концентрации позволяют особые амулеты, собираемые из четырёх частей. Кусочки этих талисманов редко валяются на локациях просто так, чаще всего для их получения нужно убивать промежуточных сильных соперников. Другими словами, поклонников «фарма» Sekiro не любит. Хочешь стать выносливее? Пожалуйста, только одолей вон того упыря.
Наконец, за уничтожение рядовых противников начисляют очки, которые затем можно тратить на покупку пассивных и активных навыков. Причём умения разделены по стилям, которые ещё нужно найти на локациях или же получить от других персонажей, выполнив определённые условия. Таким образом, чем активнее будешь осматривать каждый угол, тем больше потенциальных способностей появится в арсенале.
При этом в Sekiro есть система костров, которые здесь выглядят как небольшие статуи, есть уровни с кучей неочевидных тропинок да условный храм, где обитают несколько важных персонажей, — всё как в «душах». Сюда будешь возвращаться, чтобы увеличить количество аптечек (пока лекарь не переедет), ради отработки новых механик в спарринге, а заодно для расширения или улучшения арсенала дополнительного вооружения. С разнообразием проблем нет, однако можно не выбираться за пределы сюрикенов, топора и огнемёта, чтобы чувствовать себя комфортно.
«Фромы» не раз упоминали, что Shadows Die Twice начинала свой путь как продолжение Tenchu, но со временем слишком далеко уехала от изначальной задумки и превратилась в то, что мы имеем сейчас. Стелс здесь действительно напоминает о бородатой серии про скрытных ниндзя, однако выполнен он на том же уровне, поскольку почти все враги в игре тупые и глухие. Да, условности системы позволяют создавать крутые ситуации: скачешь с одного дерева на другое, сваливаешься на головы солдатам и вновь взмываешь в воздух, вырезая противников подобно грациозному смертельному вихрю. После такого не хватает разве что специальной кнопки, чтобы вытереть кровь с клинка.
Но при ближайшем рассмотрении видна топорная работа стелса. Конечно, с его помощью можно облегчить себе путь, значительно уменьшая количество противников, избавляясь от мерзких глазастых стрелков или же сразу снимая одну из полосок жизни у мини-боссов. Однако есть немало ситуаций, когда в открытом бою вырезаешь нескольких бойцов, а их товарищи даже не оборачиваются. Или выскакиваешь из кустов, убиваешь кого-то, а смотрящий на всё это дело солдат даже бровью не поведёт. Не говоря уже о том, что трупы не привлекают внимание патрулей, а сами локации порой настолько линейны и так просматриваются, что просто не оставляют путей для обхода со спины. Да и во время повторного забега к боссу куда быстрее пролететь мимо всех — всё равно не догонят, чем в очередной раз сидеть в траве по несколько минут или скакать по крышам.
Зато открытый бой в Sekiro получился до невероятного яростным и адреналиновым. Первый и главный совет — забудьте, чему вас учили Dark Souls и Bloodborne. Команда Миядзаки, похоже, специально решила потроллить поклонников этих игр, сделав механику сражений максимально далёкой от того, что привыкли видеть в работах FromSoftware. Более того, полученные в предыдущих играх знания даже мешают, а не помогают. Отсюда и тысячи воплей в Сети про убийства боссов по четыре часа и какую-то «невероятную сложность». Конечно же, когда колесишь вокруг соперника, изредка потыкивая его мечом, можно и неделю просидеть, не осилив даже первую форму.
Shadows Die Twice работает совсем по-другому и взамен выносливости предлагает систему концентрации, которая заставляет действовать напористо и настолько агрессивно, насколько это возможно. Суть очень проста — чем больше вы напираете на врага, постоянно атакуя и парируя его ответные выпады, тем менее сосредоточенным он становится. Расшатав соперника до критической отметки, можно нанести ему смертельный удар, мгновенно убивающий более слабых солдат и снимающий одну полоску жизни у промежуточных и основных боссов. Естественно, вывести из равновесия могут и героя, поэтому вечно сидеть в блоке не только невыгодно, но и очень опасно. Ведь цель каждого, даже самого незначительного сражения — не царапать очередного самурая редкими тычками (это долго и бессмысленно), а сосредоточиться на том, чтобы как можно быстрее подавить его.
Сюжетные соперники и их младшие собратья очень любят огрызаться не только стремительными комбинациями, но и специальными приёмами. Всего их три: захват, удар по ногам и удар в корпус. Причём от каждого предлагается уворачиваться по-своему: уходить в сторону, подпрыгивать или же исполнять контратаку (хотя в этом случае я обычно не рисковал и просто отбегал подальше).
Когда вам собираются делать больно, над головой у героя загорается иероглиф, но этого мало — потребуется по анимации врага понять, что именно он хочет сделать, и отреагировать за секунду. Самые сочные сражения получаются, когда ты за два-три захода запомнил всё, что умеет босс, поэтому разбираешь его, отражая все выпады. Клинки, скрещиваясь, высекают кучу искр, напряжение нарастает физически, а происходящее в такие моменты превращается в безумный танец, где только от твоего умения держать ритм зависит исход боя. На рынке не так много игр, которые умеют передать ощущение яростного сражения на мечах, и Sekiro это удалось на всю сотню процентов.
Хотя технические недоработки могут смазать даже самый захватывающий момент. Во-первых, никуда не делась традиционная для компании проблема с хитбоксами — невидимая зона поражения не всегда совпадает с фактической моделью персонажа, поэтому захваты «за пиксель пятки» случаются. Как раз тот случай, когда вопишь: «НУ Я ЖЕ НАЖИМАЛ!» У некоторых врагов атаки самонаводящиеся — можно уйти с линии вроде бы в безопасную область, а противник ка-а-а-ак крутанётся на месте. Если в Dark Souls 2 такое не доставляло особых проблем из-за медлительности происходящего, то в стремительной «Секиро» можно и не успеть среагировать. Однако больше всего раздражает камера, которая ведёт себя адекватно ровно до момента, пока тебя не зажмут в угол, — из-за ракурса не видно ни себя, ни врага. Чёрт его знает, что он там собирается делать! Пытаешься отчаянно упрыгать хоть куда-нибудь, чтобы вернуть чертовку на место, а вместо этого умираешь. И ведь бои нередко проходят в ограниченных пространствах!
К счастью, в качестве запасного варианта игра предлагает воскреснуть и продолжить бой. Бесконечно возвращаться к жизни нельзя, к тому же прохождение это ничуть не облегчает. Если какой-то из боссов уничтожает нашего синоби влёт, то вставай хоть сотню раз подряд, победить не получится — нужно разбираться и думать, что делаешь не так. Опция скорее предназначена для ситуаций, когда осталось чуть-чуть дожать противника, а он нанёс внезапный смертельный удар. Эдакая страховка от одной ошибки.
FromSoftware успешно выбралась из своей зоны комфорта, предложив вроде бы и знакомую по некоторым элементам, но совершенно другую игру. Sekiro: Shadows Die Twice делает упор на адреналиновый экшен, сдобренным стелсом, и отправляет нас в интересное путешествие по феодальной Японии, где вполне можно зависнуть на месяц-другой, пытаясь найти все секреты и подобрать ключи ко всем врагам. Впрочем, топорные прятки, малое разнообразие рядовых монстров и повторяющиеся боссы (пламенный привет монахам и обезьянам) слегка портят общее впечатление, но получать удовольствие от прохождения не мешают. Точите клинок и учитесь терпению, ведь хвастливое «да у меня все Dark Souls пройдены» здесь не имеет никакой ценности. Два чая Миядзаки-сан!
**Достоинства**: **Недостатки**:
|
|
Опрятно, но не более того. Упор здесь явно делался не на технологии.
|
|
Игра по умолчанию включает японскую звуковую дорожку. Пожалуй, её лучше оставить — создаёт отличную атмосферу.
|
|
Sekiro очень не любит тех, кто не хочет учиться, поэтому таким воинам здесь будет очень и очень больно. Но тем, кто хочет анализировать поведение врага и понимать свои ошибки, игра раскроет свою боевую систему по полной.
|
|
Не предусмотрена.
|
|
У Sekiro есть парочка проблемных решений, ей не хватает мрачного обаяния Souls-серии, однако у FromSoftware получилась ещё одна крепкая игра с отличной боевой механикой.
*Оценка: 8,5/10* **Видео**: |
985,006 | Intel представила процессоры Xeon D-1600: почта, телеграф, мосты | В 2015 году компания Intel представила процессоры Xeon семейства D. Первой появилась серия Xeon D-1500. Процессоры Xeon D получили архитектуру уровня Intel Core (Broadwell), став на ступеньку выше Xeon на архитектуре Atom. Целевое назначение Xeon D при этом не изменилось ― они всё так же были ориентированы на создание микросерверов, встраиваемых решений, систем для хранения данных малого и среднего уровней и сетевого оборудования. В 2018 году компания выпустила серию Xeon D-2100 на архитектуре Skylake. Тем самым в семейство Xeon D добавились решения повышенной производительности. Сегодня Intel представила третью серию Xeon D ― процессоры D-1600, которые возвращают нас к истокам семейства, главной целью которого был захват рынка производительной периферии с акцентом на плотность и сниженное потребление.
Процессоры Intel Xeon D-1600 получили меньшее число ядер, чем у их предшественников в лице Xeon D-1500. Диапазон числа физических ядер у моделей Xeon D-1600 сократился с 4–16 до 2–8. Максимальный тепловой пакет при этом остался тем же ― 65 Вт, тогда как минимальное значение TDP снизилось с 35 Вт до 27 Вт. Снижение числа ядер и сохранение максимального уровня TDP говорит о росте производительности в пересчёте на одно ядро. Во многом это достигается за счёт прироста как базовой частоты (в 1,2–1,5 раза), так и за счёт увеличения частоты при автоматическом разгоне до 3,2 ГГц, тогда как модели Xeon D-1500 в режиме турбо ограничивались частотой до 2,7 ГГц. Определённым образом Intel откатилась назад по шкале эволюции, понизив градус многоядерности в пользу наращивания однопоточной производительности. Собственно, этого требует позиционирование новой серии и активное развитие виртуализации сетевых функций (NFV). Для этого стала важнее скорость реакции сетевой платформы, что хорошо отрабатывается повышением тактовых частот.
Архитектурных изменений в моделях Xeon D-1600 не очень много, если они вообще есть (пока предполагаем, что архитектура осталась прежней ― Broadwell). Интегрированный контроллер памяти остался двухканальным с поддержкой модулей DDR4 с частотой до 2400 МГц суммарным объёмом до 128 Гбайт. Также поддерживается память DDR3L-1600. Уточним, процессоры Xeon D ― это однокристальная платформа, фактически SoC, что чрезвычайно удобно для тех областей, на которые нацелены эти решения.
Встроенные в процессоры интерфейсы представлены 24 линиями PCIe 3.0, 8 линиями PCIe 2.0, 6 портами SATA 6 Гбит/с, 4 портами USB 3.0, 4 портами USB 2.0 и 4 портами Ethernet 10 Гбит/с. Кстати, об Ethernet. На кристалл Xeon D-1600 интегрирован контроллер Intel серии Ethernet 700. На это намекают не только четыре интерфейса Ethernet 10GbE, но также поддержка технологии Intel QuickAssist.
У старшей серии Xeon D-2100 модели Xeon D-1600 взяли то, чего не было у моделей Xeon D-1500 ― это поддержка технологии Intel QuickAssist (QAT). Технология QAT поддержана в моделях Xeon D-1600 с индексом «N». Наличие QAT означает, что процессор несёт встроенный аппаратный ускоритель для работы с криптографией, компрессией и обработки сетевого трафика. Поддерживается целый ряд популярных алгоритмов, что существенно разгружает вычислительные ядра и даёт ощутимый прирост производительности. Например, обработка трафика TLS/IPSec плюс компрессия происходит со скоростью 30 Гбит/с плюс 30 000 операций в секунду, как и расшифровка ключами RSA с такой же производительностью.
Поставки процессоров Xeon D-1600 компания Intel начнёт во втором квартале текущего года. Решения на основе новинок попадут на рынок к середине года или во второй его половине. По представлениям Intel, вычислительное и коммуникационное оборудование на базе Xeon D-1600 станет оптимальным выбором для развёртывания инфраструктуры для реализации и поддержки сотовой связи поколения 5G, а также для организации периферийных (пограничных) вычислений, когда обработка сырых данных (видео, сбор информации с датчиков, включая автомобильную электронику) происходит на месте и минимизирует пересылку в центры по обработке информации. Кроме того, они могут быть использованы в системах хранения данных.
Процессоры Intel Xeon D 1600 представлены в рамках большого обновления решений для ЦОД, которое включает «взрослые» Intel Xeon Cascade Lake AP и SP с поддержкой памяти Optane в формате DDR4-модулей и новых инструкций для ИИ, модульные FPGA Agilex и сетевые контроллеры 100GbE Intel Ethernet 800. Подробности по ссылкам ниже. |
985,051 | Собираем компьютер мечты… 20 лет назад | Уже два года на 3DNews есть рубрика «Компьютер месяца», в которой мы рассматриваем оптимальную конфигурацию железа в соответствии с запросами покупателя и толщиной его кошелька. Но ведь наш сайт существует с 1997 года, а тогда никаких «компьютеров месяца» мы еще не придумали. Что если мысленно переместиться в далекое прошлое IT-индустрии (пусть не к самому началу 3DNews, а, скажем, на двадцать лет назад) и вообразить, какая комбинация устройств была возможна в те времена? При одном условии — мы не будем стеснять себя финансовыми рамками и соберем такой компьютер, на который хватит фантазии, лишь бы железо оставалось в пределах той эпохи. А затем проверим, на что способна тогдашняя система мечты в самых требовательных играх рубежа тысячелетий, ведь наша цель — бескомпромиссный геймерский ПК.
⇡#
**Однопроцессорная платформа на Pentium III**
Выбирая компьютер по стандартам 1999–2000 годов, можно пойти в одном из двух направлений, взяв платформу Intel с центральным процессором Pentium III или альтернативу от AMD на CPU Athlon. Перед археологом IT-индустрии стоит нелегкий выбор, ведь обе архитектуры в то время были одинаково хороши для того, чтобы построить мощный игровой компьютер. К тому же у чипов AMD на ядре Thunderbird было такое преимущество, как материнские платы с поддержкой памяти DDR SDRAM. Самые осведомленные из читателей могут заметить, что для Pentium III тоже существуют платы со слотами DDR или даже RDRAM, но это и по сей день экзотика, которую сложно найти в продаже. Как бы то ни было, мы сделали выбор в пользу Pentium III — в основном из сентиментальных соображений, ведь как раз в 2000 году Intel сделала ставку на новую архитектуру NetBurst и чипы Pentium 4. А поздние выпуски Pentium III, таким образом, подвели черту под целой эпохой, в то время как Athlon на архитектуре K7 успешно развивался и дальше.
Закрыв вопрос с платформой, нужно определиться с конкретной модификацией центрального процессора. Если мы не собираемся отступать от круглой даты «20 лет назад» и соблюдаем строгие временные рамки 1999 года, выбор сводится к одной из моделей на ядре Coppermine. Но давайте все же расширим условия задачи. Что, если мы доведем платформу Pentium III до предела ее возможностей? Тогда выбор CPU очевиден — это Pentium III-S на ядре Tualatin со штатной частотой 1,43 ГГц! И системная плата ему подстать — Abit ST6 на чипсете Intel 815EP. Старожилы помнят, что это одна из лучших плат для оверклокинга Pentium III, так что мы не упустили возможность разогнать CPU до 1,68 ГГц. Слоты оперативной памяти заняли три модуля PC-133 совокупным объемом 384 Мбайт — плата может освоить и вдвое больше памяти, но для игровых тестов в этом нет никакой необходимости.
Плата Abit ST6 лишена встроенной сетевой карты, ведь тогда компьютер без доступа в интернет был совершенно нормальным явлением. Подходящий по году выпуска адаптер 3Com 3C905B-TX стандарта 100 Мбит/с решил эту проблему. А вот в аспекте дисковой подсистемы мы сжульничали и подключили SSD с помощью контроллера PROMISE Technology SATA300 TX2Plus: скорость загрузки ОС и программ с IDE-диска — это не те впечатления, которые хочется пережить спустя десятилетия.
⇡#
**Двухпроцессорная платформа на Pentium III**
Материнская плата Abit ST6 и разогнанный Pentium III-S — о таком компьютере большинство из нас могли только мечтать 20 лет тому назад. Но как показало время, мечтать нужно было о двухъядерной системе. Конечно, большинство программ для домашнего ПК, не говоря уже об играх, в те годы не могли задействовать два центральных процессора, но в железе такая возможность была, и сейчас мы ею воспользовались.
В планах на эту статью изначально фигурировала двухсокетная материнская плата ASUS CUV4X-DL — официально она не совместима с чипами Tualatin, но может принять два Pentium III-S после модификации разъемов (или с помощью адаптеров). Увы, наш экземпляр оказался полумертвым, но подвернулась равноценная замена в виде Intel SAI2 на чипсете ServerWorks ServerSet III LE. К тому же эта плата позволила набрать 2 Гбайт оперативной памяти за счет четырех регистровых модулей PC-133. Согласитесь, такая конфигурация уже выглядит вполне современно, особенно с накопителем SSD.
У этой платформы есть лишь один критический изъян — отсутствие разъема AGP, поэтому выбор графической карты для двухголового Pentium III-S существенно ограничен по сравнению с Abit ST6. К счастью, плата SAI2 несет не только стандартные 32-битные слоты PCI, но и два 64-битных разъема PCI-X, для которых существуют подходящие видеокарты. Один из них мы заняли RAID-контроллером Adaptec ASR-2230SLP/256 для шины Ultra-320 SCSI и собрали дисковый массив RAID-0 из трех винчестеров Seagate Cheetah 15K.5 со скоростью вращения шпинделя 15 тыс. об/мин. Конечно, даже массив из трех серверных 15-тысячников — не соперник SSD, но все-таки по скорости запуска ОС и установки программ RAID дает огромное преимущество по сравнению с одиночным жестким диском.
**Видеокарты**
Отбирая видеокарты для теста, мы ориентировались опять-таки скорее на определенный уровень технологий, нежели на строгие временные рамки. Процессор Pentium III-S с частотой 1,43 ГГц появился в 2002 году: осталось недолго до выхода GeForce 3 и Radeon 8500. Но программируемые шейдеры — это уже гигантский водораздел в истории GPU, перед которым мы решили остановиться. С другой стороны, видеокарты той поры, когда сам термин Graphics Processing Unit (а его, к слову, придумала NVIDIA специально для GeForce 256) еще не был в обиходе, тоже едва ли подходят для сборки мечты на топовом Pentium III. Лучшим спутником для такой системы — и по хронологической близости, и по исторической значимости — станет одна из ранних моделей с аппаратным T&L: либо NVIDIA GeForce 256, либо ATi Radeon DDR.
GeForce 256 не нуждается в представлении — это первенец семейства GeForce, основанный на процессоре NV10. Огромный по тем временам транзисторный бюджет (17 млн при техпроцессе 220 нм) позволил NVIDIA интегрировать в GPU геометрический блок, выполняющий трансформацию и освещение полигонов. Впрочем, потенциал этой функции в полной мере раскрылся только в следующих итерациях архитектуры, когда быстродействие центрального процессора уже не позволяло столь же эффективно обслуживать GPU, лишенный аппаратного T&L.
Не менее важным событием для 3D-ускорителей стала смена оперативной памяти с устаревшего стандарта SDRAM на прогрессивный DDR SDRAM, который позволил GPU вдвое увеличить пропускную способность кадрового буфера. NVIDIA представила видеокарту на основе NV10 с чипами DDR вскоре после выхода оригинального GeForce 256, но вместо нее мы выбрали следующую модель — GeForce 2 GTS. Она отличается от GeForce 256 не только типом оперативной памяти, но и удвоенным числом блоков наложения текстур. Кроме того, в GeForce 2 GTS есть зачатки пиксельных шейдеров, которые, разумеется, игроделами того времени были начисто проигнорированы. Но в целом GeForce 2 GTS — это всего лишь продолжатель идей, заложенных в GeForce 256.
Самый первый Radeon, как и GeForce 256, впоследствии стал родоначальником собственного семейства графических карт. Это устройство сделало ATi одним из ведущих игроков на рынке дискретных GPU — по крайней мере, в технологическом плане. В чипе R100 повторилось все лучшее, что на тот момент было у NVIDIA: аппаратный T&L и поддержка памяти DDR SDRAM. В силу архитектурных особенностей графического процессора Radeon DDR не отличался высоким филлрейтом на фоне GeForce 2 GTS, который был его главным соперником. Но у R100 есть важное преимущество — функция отсечения невидимых поверхностей (Z-culling) на ранних стадиях конвейера. Благодаря ей Radeon DDR эффективно использует массивную ПСП чипов DDR и способен на равных бороться с конкурентом при рендеринге в 32-битном цвете.
В то время, когда появились GeForce 256 и Radeon DDR, NVIDIA и ATi (а затем AMD) еще не успели поделить между собой рынок дискретных видеокарт. Свои последние годы доживала компания 3dfx, а ее лебединой песней стал ускоритель Voodoo5 5500. В основе лучшей видеокарты, которую 3dfx успела выпустить на рынок, лежат два чипа VSA-100, связанные интерфейсом SLI, — разработчики этой архитектуры изначально планировали наращивать быстродействие за счет распайки на одной плате нескольких дискретных GPU (вплоть до четырех штук в составе Voodoo5 6000). Одиночный процессор VSA-100 в своей основе не слишком отличается от чипа Avenger предыдущего поколения (серия Voodoo3). Главное, что сделала 3dfx, — это поддержка рендеринга в 32-битном цвете, которой были лишены все предшествующие устройства этой фирмы. Но когда два VSA-100 с оперативной памятью SDRAM работают в тандеме, в распоряжении видеокарты оказывается такая же ПСП, как у памяти DDR. Кроме того, у VSA-100 есть особенность, надолго опередившая свое время: аппаратный буфер, аккумулирующий результаты рендеринга нескольких кадров (T-Buffer). За счет T-Buffer ускорителю доступны такие эффекты, как высококачественное полноэкранное сглаживание, размытие в движении или даже имитация съемки с открытой диафрагмой за счет размытия заднего фона. А спустя много лет в неофициальных драйверах для Voodoo5 появилась функция временного сглаживания, которая оперирует данными нескольких последовательных кадров.
Все перечисленные видеокарты производились в конфигурации с интерфейсом AGP либо PCI. А значит, любая из них найдет место в двухпроцессорной системе на материнской плате Intel SAI2. Увы, тестовые образцы GeForce 256, GeForce 2 GTS, Radeon DDR и Voodoo5 5500, которые есть у нас в наличии, работают на шине AGP, так что для SAI2 придется искать другие варианты — например, классику в виде пары Voodoo2, объединенных мостиком SLI. А раз так, то почему бы не добавить в список участников теста плату Voodoo3 3000 — хотя бы для сравнения с Voodoo5 5500, близким к чипу Avenger по архитектуре GPU. Да и, в конце концов, Voodoo — это всегда интересно, ведь GeForce и Radeon по-прежнему с нами, а устройства 3dfx навсегда ушли в историю.
Взвесив все за и против, мы внесли в список участников тестирования еще одно устройство — Matrox Parhelia с интерфейсом PCI. С одной стороны, мы договорились не трогать видеокарты с программируемыми шейдерами, а Parhelia является устройством того же периода и таких же возможностей, как GeForce 3, GeForce 4 и Radeon 8500. С другой стороны, Parhelia-512 образца 2002 года — это один из позднейших высокопроизводительных GPU, которые массово выпускали на платах с разъемом PCI, причем не абы каким, а 64-битным PCI-X. Его тестирование покажет максимум быстродействия, который можно получить на платформе Intel SAI2.
**Оборудование**
Все ускорители, за исключением Matrox Parhelia DL256, были протестированы на платформе Abit ST6 с процессором Intel Pentium III-S, разогнанным до 1,68 ГГц, и 384 Мбайт оперативной памяти SDRAM на частоте 120 МГц.
Сама Parhelia прошла испытание на системной плате Intel SAI2 с двумя такими же CPU, работающими в штатном режиме (1,43 ГГц), и 2 Гбайт Registered SDRAM на частоте 133 МГц. В отличие от большинства десктопных плат, серверная платформа Intel SAI2 дает выбор между 32-битным и 64-битным разъемом PCI, а это критически важно для мощного ускорителя Matrox.
**Тестовые игры**
Quake III Arena и Unreal Tournament — вот названия, которые первыми всплывают в памяти, когда заходит речь о видеокартах того времени, а дополнительно мы взяли Quake II в качестве менее требовательного бенчмарка. Другие игры, отличившиеся передовой графикой в период с 1998 по 2000 год, как правило, имели родственные связи с этой троицей: так, Half-Life вышел из переработанного кода оригинального Quake, а первый Unreal и Unreal Tournament сделаны на одном и том же движке.
Измерение средней частоты смены кадров выполнено средствами самой игры: все три проекта позволяют запустить демо с максимальной скоростью воспроизведения (команда timedemo) и сообщают результат в консоли. В Quake II и Quake III Arena для этой цели есть встроенные записи, а для Unreal Tournament мы скачали популярный в то время кровавый забег UTBench. Почти все устройства из списка участников тестирования прошли бенчмарки при разрешении 640 × 480, 800 × 600 и 1024 × 768 — последний режим недоступен только одиночной плате Voodoo2.
**Программное обеспечение** **Quake II**
В Quake II — самом легком бенчмарке среди трех игр — безоговорочно доминируют видеокарты с памятью DDR: ATi Radeon DDR и GeForce 2 GTS. Поскольку движок id Tech 2 не так активно использует мультитекстурирование по сравнению с более современными играми, которые вышли на рубеже тысячелетий, частота смены кадров в Quake II по большей части упирается именно в пиксельный филлрейт и ПСП (пропускную способность памяти) ускорителя.
А вот у других участников тестирования позиция парадоксальным образом меняется в зависимости от экранного разрешения — особенно среди видеокарт 3dfx. Так, в режиме 640 × 480 Voodoo3 не уступает GeForce 256, а Voodoo5 5500 оказался в полтора раза медленнее. Это наверняка вызвано особенностями библиотеки OpenGL в различных сборках неофициальных драйверов для ускорителей 3dfx. К тому же технология SLI, пусть и чрезвычайно простая в своем первом воплощении, даже во времена Voodoo не отличалась особенной эффективностью при низких разрешениях. Однако тесты в режиме 1024 × 768 расставили все по своим местам. Voodoo5 5500 вырвался на третье место после ATi Radeon, ведь два чипа VSA-100 с отдельными шинами RAM работают в конфигурации, аналогичной памяти DDR.
Отдельного внимания заслуживают результаты Matrox Parhelia. В 32-битном слоте PCI видеокарта, которая, по сути, пришла уже из другой эпохи, уступает по быстродействию единственной Voodoo2 — по крайней мере, при разрешении экрана вплоть до 800 × 600. Неспроста все высокопроизводительные видеокарты того времени уже перешли на стандарт AGP. Благодаря интерфейсу PCI-X с 64-битной шиной быстродействие практически удваивается, но Parhelia все равно не может соперничать на равных даже с Voodoo3 при разрешении ниже 640 × 480 и 800 × 600, хотя в режиме 1024 × 768 уже превосходит GeForce 256.
**Quake III Arena**
Quake III Arena при максимальных настройках обеспечивает совсем иное качество графики, но если видеокарта не ограничена объемом RAM, то частота смены кадров сопоставима с тем, что мы видели в Quake II. Вот какие таланты тогда работали в id Software. По максимальным результатам чемпионом «Кваки» остается GeForce 2 GTS, но у чипа NV11 есть слабое место — он не умеет отбрасывать невидимые поверхности на ранних этапах растеризации. В результате быстродействие GeForce 2 GTS при 32-битном рендеринге упирается в ПСП в режиме 1024 × 768 — точно так же, как у GeForce 256 в режиме 800 × 600.
У Radeon DDR функция отсечения невидимых полигонов (Z-Culling) присутствует, и если в 16-битном цвете продукт ATi соперничает только с GeForce 256, то в 32-битном уже догоняет GeForce 2 GTS.
Что касается ускорителей 3dfx, то Voodoo2 (как одиночная плата, так и тандем SLI) преждевременно сошел с дистанции из-за того, что текстуры Quake III при максимальной детализации не укладываются в скромные 12 Мбайт оперативной памяти. Voodoo 3, в свою очередь, не поддерживает 32-битную глубину цвета, зато в 16-битном режиме он не слишком отстает от GeForce 256 c 32-битным цветом.
Voodoo5 5500 снова уступил дорогу Voodoo3 в режиме 640 × 480. Но в двух других тестах SLI работает в полную силу, а за счет удвоенной ПСП тандем VSA-100 неплохо справляется с 32-битным цветом. При высоком разрешении (1024 × 768) Voodoo5 не оставляет шансов GeForce 256, а с 16-битной глубиной цвета капитулировал только перед GeForce 2 GTS.
Matrox Parhelia по-прежнему ограничена пропускной способностью 32-битной шины PCI, но благодаря агрессивному мультитекстурированию в Quake III быстродействие может подняться до уровня GeForce 256 при разрешении 1024 × 768 и 32-битной глубине цвета. Перенос платы в 64-битный слот позволяет ускорителю Matrox эффективно соперничать с Radeon DDR и Voodoo5 5500, лишь бы разрешение было достаточно высоким.
**Unreal Tournament**
UT появился в одно время с Quake III Arena, но его графический движок, который взяли прямиком из оригинального Unreal, является более ресурсоемким. И в то же время игра имеет архаичные черты: например, в меню нельзя активировать трилинейную фильтрацию текстур (хотя можно в конфигурационном файле). Зато в Unreal Tournament есть поддержка программного рендеринга и API Glide, хотя лучшие игры того времени уже целиком перешли на OpenGL или Direct3D. Именно Glide мы выбрали для тестов ускорителей Voodoo в UT, а значит, даже Voodoo5 5500 пришлось ограничиться 16-битным цветом (библиотеки Glide не рассчитаны на 32-битный рендеринг). Зато благодаря тому, что Glide ближе к «железу» по сравнению с универсальными высокоуровневыми интерфейсами программирования, Voodoo5 5500 на равных борется с GeForce 256, GeForce 2 GTS и Radeon DDR (а при разрешении ниже 1024 × 768 даже Voodoo3 как минимум не хуже).
Но выделить фаворита или аутсайдера в этой группе нелегко из-за того, что результаты соперников сконцентрировались в диапазоне от 49 до 55 FPS вне зависимости от разрешения экрана. Кроме того, нет практически никакой разницы между рендерингом в 16-битном и 32-битном цвете. Первая версия Unreal Engine определенно не в состоянии эффективно использовать передовое железо периода 1999–2002 годов.
Существенную разницу видно только в случае ускорителей прошлого поколения, а также Matrox Parhelia на шине PCI. Тандем Voodoo2 при разрешении 800 × 600 (а в 640 × 480 даже без SLI) подступает к Radeon DDR и неизменно превосходит Matrox Parhelia. С другой стороны, быстродействие последней не так зависит от типа разъема (32- или 64-битный), как в обеих сериях Quake.
В обзоре современного железа всегда должны быть некие насущные выводы — анализ цен и ситуации на рынке, рекомендации к покупке и так далее. Но для оборудования 20-летней давности эти вопросы остались в далеком прошлом, так что не будем делать вид, будто противостояние GeForce 2 GTS и Radeon DDR на платформе Intel Pentium III все еще актуально. Бессмысленно рассуждать и о том, как могла бы сложиться история 3D-графики в том случае, если бы 3dfx удержалась от банкротства вскоре после выхода Voodoo5 5500. И все же тема статьи оставляет место для практицизма, без всяких первоапрельских шуток.
Возьмем нашу сборку на основе двух Pentium III 1,43 ГГц с 2 Гбайт оперативной памяти и RAID-массивом из трех жестких дисков, а лучше даже SSD. Если учесть, что масса домашних компьютеров и сейчас работает на двухъядерных CPU с 4-8 Гбайт RAM, нельзя ли вдохнуть новую жизнь в такую систему с помощью современного ПО? Ответ на этот вопрос — и да, и нет. С одной стороны, на Pentium III без малейших проблем устанавливается Windows 7 (а вот дорога к Windows 8 и 10 уже закрыта) и уж тем более Linux. Пользоваться такой системой для работы в офисном пакете и чтения почты можно с не меньшим удобством, чем в 2000 году. У пары Pentium III хватает вычислительной мощности даже для воспроизведения видеофайлов в разрешении вплоть до 720p.
Главное препятствие — это веб. Начнем с того, что браузеры под Windows уже давно не запускаются на процессорах без инструкций SSE2 (в Linux эта проблема отсутствует). Но даже если устранить это ограничение, современные веб-сайты разрослись настолько, что при обновлении страницы оба Pentium III непрерывно загружены на 100 %, а скроллинг идет рывками. Чтение любимых ресурсов в таких условиях требует большого терпения. И забудьте про YouTube: формат компрессии VP9, который использует Google, не позволит насладиться видео без тормозов даже в разрешении 360p. В итоге, если у вас есть мощный компьютер того времени, лучше оставьте его для старых игр или в качестве домашнего файл-сервера. А если вам было интересно прочитать статью о винтажном железе, то к этой теме мы когда-нибудь вернемся. |
985,084 | Gamesblender № 406: от Borderlands 3 и сиквела Beneath a Steel Sky до Divinity: Fallen Heroes | Оригинал материала:
https://3dnews.ru/985084
Gamesblender № 406: от Borderlands 3 и сиквела Beneath a Steel Sky до Divinity: Fallen Heroes
В сегодняшнем выпуске: почувствуй себя Смеагорлом; встань на место дочек Би Джея Бласковица; узнай дату выхода первого эпизода ремейка «Мора». А также другие новости и события игровой индустрии
31 марта 2019
3DNews Team
Оригинал материала:
https://3dnews.ru/985084
© 1997-2024 3DNews | Daily Digital Digest | Лицензия Минпечати Эл ФС 77-22224
При цитировании документа ссылка на сайт с указанием автора обязательна. Полное заимствование документа является нарушением российского и международного законодательства и возможно только с согласия редакции 3DNews. |
985,088 | Intel Xeon Cascade Lake: вы находитесь здесь | Строго говоря, речь идёт не только и не столько об обновлении серверных процессоров, сколько о большом и важном для самой компании запуске целой плеяды разнородных продуктов, так или иначе связанных с дата-центрами. Кусочки этого пазла проявляются то тут, то там. Глобально всё это обновление укладывается в общую стратегию Intel по выстраиванию единой платформы, охватывающей и пронизывающей по возможности всю современную электронику и её применения в реальной жизни: от сенсоров интернете вещей и беспилотников до собственно дата-центров. Отдельно останавливаться на этом не будем, но общий посыл и так понятен: данных в мире много и будет ещё больше, данные эти надо обрабатывать и извлекать из них пользу. И чем быстрее, тем лучше. Применительно к дата-центрам, корпоративным и промышленным системам всё это сводится к трём основным столпам: быстрой передаче данных, большому объёму хранения и высокой скорости обработки.
Для общего понимания надо уточнить несколько моментов. Процессоры Cascade Lake SP, как и их предшественники Skylake, всё так же относятся к платформе Purley, теперь уже второго поколения — Purley Refresh. Они полностью совместимы со Skylake на уровне разъёма, чипсетов и имеющихся материнских плат. О нюансах подобного апгрейда в некоторых конфигурациях, не связанных, правда, с самой Intel, мы поговорим чуть ниже. Cascade Lake AP, хоть и являются «удвоенными» версиями SP, относятся к платформе Walker Pass. Оба варианты — SP и AP — представлены вот только что, как и Xeon D 1600 с платформой Grangeville. Про Intel Atom C поколения Snow Ridge, которые можно считать своего рода Xeon D «для самых маленьких», говорили ещё в январе.
Дальше чуть сложнее. Параллельно идёт работа над двумя новыми сериями процессоров и двумя платформами, которые появятся не раньше 2020 года. Cooper Lake SP можно условно считать развитием Skylake и Cascade Lake, а вот Ice Lake SP будут уже другими. На уровне платформ нас ждут Whitley, которая будет совместима с обеими сериями новых CPU, и Cedar Island — только для Cooper Lake. Xeon D впоследствии тоже перейдёт на ядра Ice Lake. Впрочем, все названия и планы пока носят предварительный характер. Для Xeon E относительно скоро стоит ждать небольшое обновление в связи с переходом на Coffee Lake-E Refresh, а прямо сейчас доступна карта PCI-E SGX card — ускоритель на базе трёх Xeon E, наследник VCA. В 2019 году также должны наконец выйти ИИ-ускорители Nervana Spring Crest и Spring Hill.
FPGA Intel Agilex представлены сейчас, равно как и 100GbE-продукты Columbiaville. Позже появятся и другие сетевые продукты, а также новое поколение Intel Omni Path. Наконец, через пару лет стоит ждать и GPU (хотя скорее уже просто ускорители) Arctic Sound для ЦОД.
Вот теперь с этим багажом знаний мы и попытается взлететь. В данном материале коснёмся лишь некоторых обновлений: процессоров Cascade Lake SP и AP, их технологий и памяти Intel Optane DC Persistent Memory.
Общая схема наименований и серии Platinum, Gold, Silver, Bronze остались прежними, а вот "суффиксов" стало больше. Уже имеющиеся L и M всё так же указывают на поддержку увеличенного объёма памяти — до 4,5 и 2 Тбайт вместо базовых 1,5 Тбайт соответственно. Варианты T для процессоров с расширенным сроком поддержки, готовых к работе в более жёстких условиях, тоже сохранились. Новыми для Xeon стали версии Y, N, V и S — все они являются вариациями процессоров с поддержкой Speed Select. Наиболее общий и универсальный вариант — это Y. Версии N и S заранее оптимизированы для работы с сетевыми приложениями и с базами данных соответственно. Версия V нацелена на плотную виртуализацию. Версий F с интегрированным модулем Intel Omni-Path теперь нет (хотя и те, что были, всё равно нельзя было просто так купить).
К традиционным уже ограничениям на число сокетов, каналов UPI, одновременно выполняемых AVX/FMA-инструкций и частот памяти для процессоров Bronze и Silver добавилось ещё одно — они не умеют работать с Intel Optane DC Persistent Memory. Впрочем, она им, наверное, не очень-то и нужна, несмотря на то, что это как раз одно из главных новшеств Cascade Lake. Вообще говоря, на уровне общей архитектуры и техпроцесса новинки мало чем отличаются от прошлых Skylake SP. Их следует рассматривать как очередной этап оптимизации Skylake в целом или, если хотите, работу над ошибками и над реализацией тех задумок, которые изначально должны были быть в процессорах первого поколения, но по тем или иным причинам до стадии производства не дошли.
В целом различных микроапдейтов не один десяток, но из более-менее общих и заметных внешнему наблюдателю выделяются два. Во-первых, в среднем чуть подросли частоты при сохранении прежнего TDP, то есть вычисления стали «дешевле». В среднем заявленный прирост для популярной серии Gold составляет около трети, но он не совсем уж равномерен по классам и задачам, хотя та или иная прибавка есть везде. Во-вторых, появилась поддержка DDR4-2933 c 16-Гбит чипами, то есть с типовым объёмом модуля 64-256 Гбайт. Но для конфигураций с двумя DIMM на канал частота всё равно снижается до привычных 2666 MT/s.
В остальном базовые характеристики и набор возможностей остались прежними. Число ядер и объёмы кешей не поменялись: до 28 и по 1 Мбайт L2 на ядро + до 38,5 Мбайт общего L3. Число и тип линий PCI-E тоже такие же, какие и были, — 48 линий версии 3.0. Масштабируемость не изменилась: до 3 линий UPI на 10,4 GT/s и до 8 (бесшовно) сокетов в системе. Остальные сведения об архитектуре и особенностях можно найти в материале «Знакомство с Intel Xeon Skylake-SP: сmeshaть, но не взбалтывать».
Ну и конечно, в Cascade Lake появились первые заплатки против нашумевших в прошлом году уязвимостей. В различных сочетаниях программно-аппаратные решения работают против вариантов 2 (Spectre), 3, 3a и 4 (Spectre NG), а также против L1TF (Foreshadow). Для Spectre Variant 1 всё так же предлагается только программный патч, а вот про SPOILER ничего пока не говорится. С одной стороны, презентация новинок для прессы проходила ещё до того, как поднялся шум по поводу последней. С другой же, на момент написания материала сведений от Intel всё ещё нет. Впрочем, представители компании говорят, что не боролись с конкретными вариантами, а работали над повышением защищённости CPU от подобных уязвимостей в целом.
На уровне подхода идея расширения объёма DRAM за счёт использования более медленного, зато более дешёвого типа памяти не нова. Ранее для Xeon Skylake уже использовалась технология Intel Memory Drive Technology: гипервизор + NVMe-модули Optane. Как уже отмечалось, это на самом деле разработка компании ScaleMP, которой теперь пользуются и другие производители: на SC18 Western Digital предлагала аналогичное решение для своих NAND SSD. Это достаточно простой, но не всегда производительный вариант работы из-за использования PCI-E вместо DDR4-T. Собственно говоря, внедрением Optane как устройства класса Storage Class Memory на уровень DRAM и на уровень SSD Intel пытается закрыть провал в скорости, объёме и цене между оперативной памятью и накопителями — это всё то же перекраивание иерархии памяти, о котором неоднократно говорилось.
В случае с Cascade Lake и Intel Optane DC Persistent Memory (DCPM) всё меняется. Оба продукта с первого дня разрабатывались параллельно и изначально предназначены друг для друга. Модули DCPMM визуально похожи на модули DIMM, электрически и механически совместимы с ними, работают на скорости 2666 MT/s и имеют объём 128/256/512 Гбайт. Но на логическом уровне они используют протокол DDR4-T (Transaction), который, по словам Intel, одобрен JEDEC, но на практике его поддержка есть только в контроллерах памяти Cascade Lake. Однако и тут кроются некоторые нюансы. Для работы DCPM всё равно требуется наличие хотя бы одного обычного DIMM на каждом контроллере памяти (в CPU их два, у каждого три канала). Также рекомендуется ставить DCPM в слот, ближайший к CPU. При схеме в два модуля на канал получаем 12 слотов, из которых половина отдаётся Optane. При текущем максимальном объёме модуля DCPM 512 Гбайт выходит до 3 Тбайт памяти на сокет + DRAM. И такая конфигурация намного дешевле варианта с аналогичным объёмом, набранным только DDR-модулями.
Так выглядит идеальная картинка, а на практике могут возникнуть ограничения. Текущее поколение DCPM потребляет до 18 Вт в случае наиболее ёмкого модуля на 512 Гбайт, что накладывает дополнительные требования и на подсистему питания, и на охлаждение. Впрочем, Intel предусмотрела возможность настройки профиля энергопотребления в диапазоне от 12 до 18 Вт с шагом 0,25 Вт, однако это напрямую влияет на производительность. Неслучайно модули DCPM изначально снабжены радиаторами. Внутри каждого модуля есть сразу 11 блоков памяти Optane: восемь для хранения данных, два для организации коррекции ошибок ECC и ещё один подменный. Есть выравнивание износа, а общий срок службы заявлен как сопоставимый со сроком службы сервера в целом.
Другой нюанс заключается в том, что внутренний обмен данными для чипов Optane организован в блоки по 256 байт/запрос, тогда как внешний интерфейс для контроллера памяти CPU «синхронизирован» с внутренней шиной на 64 байт/цикл. В результате случайные короткие обращения в среднем менее эффективны, чем последовательная работа с данными. Впрочем, по скорости и/или по уровню задержки DCPM всё равно в среднем лучше прежнего варианта IMDT.
Особенностью DCPM также является принудительное аппаратное шифрование всех данных по алгоритму AES-XTP с индивидуальным для каждого модуля ключом длиной 256 бит, который хранится где-то в недрах памяти и к которому имеет доступ только контроллер самого модуля. Это в каком-то смысле вынужденная предосторожность, связанная с тем, что Optane — не динамическая память. Есть даже выделенные конденсаторы, запаса энергии в которых в случае сбоя хватит для экстренной очистки данных в режиме Memory Mode, и так штатно эмулирующего поведение DRAM. Да, самое главное — Intel Optane DC Persistent Memory предусматривает два варианта работы, которые задаются при загрузке системы: Memory Mode и AppDirect Mode.
Memory Mode прозрачно расширяет видимый системой объём RAM за счёт DCPM. Собственно DRAM в этом случае просто является write-back кешем, стоящим перед массивом Optane. Очевидное преимущество в том, что нет необходимости переписывать старые приложения, они просто увидят увеличенный объём памяти. Очевидный недостаток — при росте числа промахов кеша будет расти и задержка, так как она теперь состоит из двух частей: латентности самой DRAM и латентности DCPM. Ну и при превышении рабочим набором объёма собственно DRAM будет падать скорость. Тем не менее при сочетании низкой интенсивности обращений с необходимостью в большом объёме памяти Memory Mode всё равно оказывается эффективней, чем работа с DRAM и NVMe по отдельности, так как выкидывается куча промежуточных этапов при обращении к обычному диску.
Ровно то же происходит и в AppDirect Mode, который следует считать, пожалуй, основным режимом работы Intel Optane DC Persistent Memory. В нем у приложения на выбор есть три вида памяти — DRAM, NAND SSD и промежуточный по скорости/объёму вариант в виде Optane. И его надо адаптировать к этому. DCPM может представляться и как классическое блочное устройство, то есть его можно разбить на разделы, отформатировать и использовать как сверхбыстрый SSD. А может представляться и как просто память с побитовым доступом. В любом случае при сбое по питанию или просто при перезагрузке данные останутся в памяти, что может быть крайне важно для различных критических систем, работающих с большими объёмами информации. В теории есть и ещё один нестандартный вариант — загрузка непосредственно с DCPM, что позволяет избавиться от обычных накопителей в системах, где требуется высокая плотность размещения компонентов или просто компактность.
Почему именно AppDirect Mode должен стать основным? Потому что программистов в целом неплохо бы приучить к тому, что существует третий тип памяти. Ну или наоборот, что есть теперь уже достаточно гладкая кривая для соотношения скорости и объёма. В качестве примеров эффективной оптимизации под такую иерархию Intel приводит работу приложений, которые выигрывают от грамотного разнесения данных по классам: SAP HANA, большие базы данных, системы аналитики Big Data. А для Memory Mode типичный пример — повышение плотности размещения виртуальных машин. В любом случае, бездумно переходить на DCPM особого смысла нет — разработчики неоднократно повторяют, что работу приложений надо тщательнее изучать и оптимизировать.
Одним из инструментов, который доступен в Cascade Lake, является Intel Resource Director Technology (RDT). Технология RDT, если кратко, предоставляет собой механизмы довольно тонкого мониторинга и контроля над исполнением приложений и использованием ресурсов. Она сама по себе нова и присутствовала в процессорах и раньше. В данном случае она предлагает классификацию и приоритизацию, влияющие на распределение запущенных потоков, пропускной способности кеша и памяти, — всё для того, чтобы более высокоприоритетное приложение вовремя получало всё, что ему нужно. Естественно, за счёт некоторого «ущемления в правах» других приложений.
Ровно ту же саму идею приоритизации реализует и технология Speed Select (SST), но уже на уровне ядер. Опять-таки сама по себе она не нова: например, разработчики СХД уже давно программно «навешивают» тяжёлые операции вроде компрессии или дедупликации на отдельные ядра. В Cascade Lake Intel с помощью SST предлагает ещё во время загрузки жёстко выделить группу ядер, которая будет иметь повышенный приоритет над другими. Это заметно повышает предсказуемость поведения ПО и время реакции, а в сочетании с RDT позволяет провести ещё более точный тюнинг.
SST предлагает два варианта работы. Первый, то есть SST-CP, динамически снижает частоты более низких по приоритету ядер, когда ядрам с более высоким приоритетом необходимо больше и на более долгий срок задействовать вычислительные ресурсы, что позволяет не упираться в потолок по питанию и охлаждению. Проще говоря, на турбочастотах такие ядра будут работать дольше. Второй вариант — SST-BF — устроен проще. В этом случае группа привилегированных ядер постоянно работает на более высокой базовой частоте, чем стандартная, а для всех остальных базовая частота, что очевидно, снижается. Всего можно задать три различных профиля поведения групп ядер. В наиболее общем виде SST представлена в маленькой серии процессоров Y. Заранее адаптированными вариациями являются серии N и S.
Единственный представитель последней ориентирован на работу с поиском — в первую очередь в базах данных. Но это больше касается тех систем, где требуется предсказуемая и по возможности малая задержка. Аналогичная задача возложена и на серию N, которая специально создана для виртуализации сетевых функций, или, проще говоря, для SDN во всём их многообразии, популярность которых стремительно растёт. Они же могут быть полезны не только в ЦОД или облаках, но и на пограничных (edge) узлах, предварительно обрабатывая, к примеру, IoT-трафик. Несмотря на то, что публичный набор SKU этих серий очень невелик, надо полагать, что именно они в виде semi-custom решений — а на таковые в принципе приходится половина всех выпускаемых чипов — будут пользоваться спросом.
Для N-серии отличным компаньоном должны стать новые Ethernet-контроллеры Intel 800 и софт DPDK вкупе с RDT. Контроллеры в дополнение к давно уже представленной технологии Quick Assist Technology обзавелись эволюционировавшей компонентой eXpress Data Path (AF_XDP), выносящей обработку трафика в пространство пользователя и позволяющей приложениям напрямую общаться с контроллером. Другое важное обновление касается Application Device Queues (ADQ) и Dynamic Device Personalization (DDP). ADQ позволяет приоритизировать трафик для приложений, а DDP дает возможность классифицировать его путём разбора пакетов на лету по заданным правилам. Всё вместе позволяет весьма тонко оптимизировать работу сетевых приложений на всём цикле исполнения: от обращений к диску и памяти до отправки пакетов по назначению.
Следующее нововведение касается нового набора инструкций, носивших ранее кодовое имя VNNI — Vector Neural Network Instructions. История тут довольно проста. Рост потребностей в системах с ИИ (давайте уж для простоты обобщённо называть их так, пусть это и не совсем корректно) очевиден. И если с процессом обучения, который проходит на GPU или скорее уже специализированных ускорителях, Intel ничего поделать пока не может, то вот с запуском натренированных моделей ситуация ровно обратная — по словам компании, на практике до 80 % таких нагрузок исполняется на CPU. В том числе потому, что процесс этот на порядки менее требовательный, чем обучение, а также благодаря более лёгкой масштабируемости, ну и за счёт того, что далеко не всегда есть необходимость покупать для этого специальные карты, которые хоть и высокопроизводительны, но не дёшевы.
Вот на последний пункт — универсальность CPU вкупе с изрядно возросшей в таких задачах производительностью — Intel и напирает. Никакой магии тут, конечно, нет. VNNI, по сути, — всего лишь ещё одна надстройка над AVX-512, которые и так использовали для запуска моделей. Для формата INT8, который выбран в качестве основного, вместо трёх инструкций для операции MAC теперь нужна всего одна. То есть за цикл один AVX-блок может выполнить до 64 таких операций, а блоков в старших сериях два. Собственно MAC (умножение и сложение) — это базовая операция при работе с матрицами, которые и представляют собой основу нынешних нейронных сетей в общем виде.
Аналогичные операции делают и Tensor-ядра NVIDIA, и блоки Google TPU, и прочие ускорители. Даже в FPGA они появились. Разница — в оптимизации под разные задачи и форматы. У Intel есть и ещё один козырь — OpenVINO Toolkit, который позволяет настроить и оптимизировать исполнение натренированных моделей под конкретную архитектуру. Проект открытый, но изначально разрабатывался внутри Intel, так что её собственное «железо» может получить некоторое преимущество. Сами же Cascade Lake — лишь малая часть всего ИИ-портфолио компании.
Описание Cascade Lake AP умышленно сдвинуто в конец материала, потому что эти процессоры не для простых смертных, так сказать. На них даже цена не указывается. Но это как раз понятно, потому что упаковка серии Xeon Platinum 9200 — это BGA5903. Поставляться они будут только в виде уже готовых блоков, предварительно оттестированных и валидированных самой Intel. Собственно AP-процессоры представляют собой сразу два чипа SP в виде MCP под одной теплораспределяющей крышкой. Очевидно, что при TDP от 250 до 400 Вт для каждого процессорного разъёма (а их может на одной плате быть два) требования к системе охлаждения резко возрастают, как и требования к питанию.
Разводка и самой упаковки, и платы заметно усложняется. А тут ещё и 12 каналов памяти + 40 линий PCI-E + 4 линии UPI для каждого сокета, которые тоже надо вывести. В целом серия AP нужна для повышения плотности размещения ресурсов. Двухсокетная сборка AP — других, похоже, и не предполагается — почти эквивалентна четырёхсокетной из обычных SP, но в гораздо более компактном исполнении. Это пригодится либо для HPC или суперкомпьютеров и ИИ, либо для приложений, которым нужен очень большой локальный объём памяти, для систем аналитики. Формально 9200 AP — это самые лучшие процессоры компании на текущий момент, хотя лидерство здесь достигнуто не совсем привычным путём. Что же, видимо, снова пришла пора мультичиповых сборок.
Для Cascade Lake AP у Intel есть готовые платформы серии S9200WK в чуть непривычном исполнении. В шасси высотой 2U с тремя общими для всех узлов БП можно установить в различных вариантах блоки половиной ширины и высотой 1U или 2U. Каждый блок имеет по два процессора и по 24 слота для памяти. Самый компактный вариант предполагает установку только пары накопителей M.2 и двух низкопрофильных плат PCI-E через райзеры. Варианты покрупнее дают возможность установки ещё двух дополнительных дисков U.2 и ещё двух карт. Для двух из трёх исполнений используются общая СЖО, и лишь один предполагает воздушное охлаждение.
Сегодняшний выход новых процессоров можно считать первым этапом глобальным обновления платформы ЦОД, так как во второй половине года будет ещё парочка интересных анонсов. Но и рассматривать Cascade Lake сами по себе тоже немного неправильно — одновременно вышли Xeon-D 1600, Agilex, Ethernet 800. Сама компания называет это крупнейшим запуском в своей истории, стратегически очень важным для неё. Это ответ на текущие запросы индустрии. Мало памяти? Возьмите Optane DC Persistent Memory. Хотите работать с ИИ? Получите новый набор инструкций. Нужна лучшая оптимизация под NFV, но нет готовности заказать semi-custom? Есть и такие CPU. Быстрая сеть с разнообразной разгрузкой? Получите. А ещё есть интерконнект (внутренний и внешний), решения для HPC, пачка FPGA, целая плеяда разнообразнейших Xeon, собственные SSD, ИИ-ускорители, готовые платформы, а скоро будут GPU и, вероятно, квантовые вычислители.
А ещё есть 5G, беспилотные авто и IoT, пути которых тоже заканчиваются в дата-центрах, где есть CPU, FPGA, сеть, накопители… в общем, смотри выше. Всё это постепенно провязывается между собой программными компонентами, в которые Intel вкладывает много сил и денег. Как уже говорилось в самом начале, все это — попытка выстроить единую экосистему продуктов и инфраструктуру будущего, что должно дать преимущество перед другими производителями. И уже вызывает их серьёзные опасения, потому что такие попытки уже были. Сначала на уровне набора чипов, потом на уровне ПК и платформ, а сейчас и вовсе на уровне индустрии. Что это — безоговорочный лидер или колосс на шести глиняных столпах? |
985,155 | Компьютер месяца — апрель 2019 года | Очередной выпуск «Компьютера месяца» традиционно выходит при поддержке компьютерного магазина «Регард». На сайте вы всегда можете оформить доставку в любую точку нашей страны и оплатить заказ онлайн. Подробности можете прочитать на этой странице. «Регард» среди пользователей славится достаточно адекватными ценами на компьютерные комплектующие и большим выбором продукции. К тому же у магазина есть услуга по бесплатной сборке: вы составляете конфигурацию — сотрудники фирмы ее собирают.
«Регард» — партнер рубрики, поэтому в «Компьютере месяца» мы ориентируемся на продукцию, которая продается именно в этом магазине. Ссылки в «Компьютере месяца» ведут на соответствующие категории товаров магазина. В таблицах указаны актуальные на момент написания статьи цены, округленные в большую сторону до значения, кратного 500 рублям. Естественно, за время «жизненного цикла» материала (один месяц со дня публикации) стоимость определенных товаров может как увеличиться, так и уменьшиться. Мы советуем приобретать комплектующие там, где вам удобнее/выгоднее/проще.
Для новичков, которые все никак не решаются самостоятельно «смастерить» себе ПК, вышло подробное пошаговое руководство по сборке системного блока. Получается, что в «Компьютере месяца» я рассказываю, из чего собрать компьютер, а в руководстве — как это сделать.
«Входной билет» в мир современных ПК-игр. Система позволит играть во все ААА-проекты в разрешении Full HD преимущественно на высоких настройках качества графики, но иногда придется выставлять и средние. Подобные системы не имеют серьезного запаса прочности (на ближайшие 2-3 года), изобилуют компромиссами, нуждаются в апгрейде, но и стоят меньше остальных конфигураций.
|
Стартовая сборка
|
Процессор |AMD Ryzen 3 2300X, 4 ядра, 3,5 (4,0) ГГц, 8 Мбайт L3, AM4, OEM
|6 500 руб.
|Intel Core i3-8100, 4 ядра, 3,6 ГГц, 6 Мбайт L3, LGA1151-v2, OEM
|9 000 руб.
|
Материнская плата |AMD B350
|Примеры:
• Gigabyte GA-AB350M-DS3H V2;
• ASRock AB350M-HDV R3.0
|4 500 руб.
|Intel H310 Express
|Примеры:
• ASRock H310M-HDV;
• MSI H310M PRO-VD;
• GIGABYTE H310M H
|4 000 руб.
|
Оперативная память |8 Гбайт DDR4-3000 для AMD:
• G.Skill Aegis (F4-3000C16S-8GISB)
|4 000 руб.
|8 Гбайт DDR4-2400 для Intel:
• ADATA Premier
|3 500 руб.
|
Видеокарта | AMD Radeon RX 570 8 Гбайт:
• MSI RX 570 ARMOR 8G OC
|13 000 руб.
|
Накопитель |SSD, 240-256 Гбайт, SATA 6 Гбит/с
|Примеры:
• Crucial BX500 (CT240BX500SSD1);
• ADATA Ultimate SU655 (ASU655SS-240GT-C)
|2 500 руб.
|
Процессорный кулер |DeepCool GAMMAXX 200T
|1 000 руб.
|
Корпус |Примеры:
• ACCORD A-07B Black;
• AeroCool CS-1101
|1 500 руб.
|
Блок питания |Примеры:
• Chieftec TPS-500S 500 Вт;
• Cooler Master Elite 500 Вт;
• Thermaltake TR2 S (TRS-0500NPCWEU) 500 Вт
|3 000 руб.
|
Итого |AMD — 36 000 руб.
Intel — 37 500 руб.
Постоянные читатели 3DNews, и «Компьютера месяца» в частности, знают, что сборки в рубрике жестко не привязаны к определенному бюджету — потому что это путь в никуда. Однако постоянно в комментариях к тому или иному выпуску некоторые пользователи предлагают удешевить ту же стартовую сборку исключительно ради удешевления. Я, например, в этом не вижу смысла. Ну возьмем мы вместо Radeon RX 570 видеокарту уровня GeForce GTX 1050, ну сэкономим 2-3 тысячи рублей, но какой будет итог? Итог такой, что подобная экономия может привести к потере 45 % FPS в современных играх в разрешении Full HD.
Допустим, мы сэкономили на процессоре, а именно вместо Ryzen 3 2300X взяли Ryzen 3 1200 — в кармане осталась 1 000 рублей, но система стала медленнее на 20+ %. Не очень выгодно получилось. В таком случае, возможно, стоило взять Athlon 200GE, ведь покупка этого чипа сохранила бы нам минимум 3 500 рублей? Что ж, наши тесты показывают, что такая рокировка устроит исключительно самых нетребовательных пользователей, ведь новые двухъядерники AMD оказываются медленнее Ryzen 3 1200 в играх более чем на 15 %. В общем, таких «Атлонов» в «Компьютере месяца» вы никогда не увидите.
Аналогичная ситуация наблюдается и с чипами Intel. В стартовой сборке используется 4-ядерный Core i3-8100. Ранее я ставил в систему 4-поточный Pentium Gold G5400 — ставил в качестве «затычки», приговаривая, что со временем этот «гиперпень» хорошо бы заменить каким-нибудь 6-ядерником, например Core i5-8400. А ведь вместо Pentium Gold G5400 можно взять Celeron G4900 и вообще сэкономить 6 500 рублей. Но только про современные игры на такой системе можете сразу же забыть, так как приложения либо не запустятся, либо будут жутко тормозить.
В целом если у вас нет обозначенной суммы денег, а играть хочется, то единственным на данный момент решением станет покупка комплектующих для старенькой платформы AM3+. Впрочем, остается возможность покупки комплектующих без действующей гарантии — больше информации о данном варианте вы почерпнете в этой статье. Я же в очередной раз напоминаю, что в «Компьютере месяца» предлагаются только сборки на базе современных платформ и только новые комплектующие.
Вернемся к процессору Core i3-8100. В марте появились новости, что Intel постигнет вторая волна дефицита процессоров. Мы видим, что рынок не отошел и от первой волны, но пока — в апреле — за счет укрепления национальной валюты чипы Intel даже немного сбросили в цене. Я решил вернуть этот 4-ядерник, даже при цене в 9 000 рублей с учетом округления. Боксовая версия Pentium Gold G5400 на момент написания статьи стоила ровно 5 000 рублей — процессор подешевел на 1 000 рублей за месяц. Однако снижение цены на другие комплектующие позволило по-прежнему использовать Core i3 — в результате стартовая сборка Intel оказалась дороже системы AMD на 1 500 рублей. В итоге обе системы теперь сравнимы по производительности.
Напоминаю, что Ryzen 3 2300X предназначен для OEM-сборщиков компьютеров, однако в России его можно приобрести отдельно, в том числе и в «Регарде». Как я уже говорил, в играх этот процессор оказывается в среднем на 20 % быстрее Ryzen 3 1300X, — мы наблюдаем отличный прирост быстродействия, не доплачивая ни копейки. Залог успеха кроется в использовании всего одного CXX-модуля, а это — огромное преимущество новинок перед четырехъядерными предшественниками с дизайном Summit Ridge. Получается, при пересылке данных или обращениях к кеш-памяти третьего уровня ядра обходятся без задействования шины Infinity Fabric, которая в существующих процессорах с микроархитектурой Zen/Zen+ нередко становится узким местом.
Отмечу, что многие производители материнских плат не внесли в список поддержки Ryzen 3 2300X и Ryzen 5 2500X. Однако наши наблюдения дают четкую картину: если плата поддерживает «камни» Pinnacle Ridge (Ryzen 3 2200G и Ryzen 5 2400G) — она поддерживает и эти OEM-процессоры AMD. На всякий случай советую обратиться в гарантийный отдел магазина, чтобы вам обновили BIOS материнской платы до последней версии.
Одним из минусов Ryzen 3 2300X считаю его реализацию исключительно в виде OEM. Все же у недорогих Ryzen-чипов в комплекте идут хорошие боксовые кулеры. В нашем же случае на него придется дополнительно потратиться. Я долго выбирал модель стоимостью не больше 500 рублей, но все системы охлаждения в этой ценовой категории обладают кучей недостатков. Так что предлагаю взять DeepCool GAMMAXX 200T — этот же кулер рекомендуется в базовой сборке.
Как всегда, я предлагаю в стартовой сборке AMD использовать платы на базе чипсета B350. Этот набор логики позволяет не только разгонять оперативную память, но и увеличивать множитель ЦП. У всех моделей Ryzen, как известно, он разблокирован. При этом не обязательно увеличивать напряжение CPU. Конечно, можно было бы сэкономить на этом компоненте системы и вместо B350-платы взять что-нибудь на базе чипсета A320. Только такая экономия, с учетом округления, составит всего 500 рублей — и при этом изрядно снизит пределы возможностей системы.
Пару месяцев подряд в стартовой сборке использовалась 8-гигабайтная версия Radeon RX 570, и в апреле изменений не предвидится. В случае с самой бюджетной конфигурацией нет особого смысла гнаться за навороченными версиями 3D-ускорителей. Отлично подойдет модель MSI RX 570 ARMOR 8G OC стоимостью 13 000 рублей, а самая доступная 4-гигабайтная модель стоит 11 500 рублей. При использовании средних и высоких настроек качества вы в большинстве случаев не почувствуете разницы в производительности. Однако при использовании более высоких настроек — близких к максимальным — начнутся проблемы при том, что GPU видеокарты в целом способен обеспечить комфортный FPS при таких параметрах. Поэтому я предлагаю проголосовать рублем за версию с 8 Гбайт видеопамяти.
Несколько подешевели версии GeForce GTX 1060 — это связано с выходом видеокарты GeForce GTX 1660. Трехгигабайтная модификация (самая дешевая) стоит в «Регарде» 13 500 рублей — дороже, чем 8-гигабайтная MSI RX 570 ARMOR 8G OC. Естественно, такие устройства в 2019 году лучше обходить стороной.
В завершение, как всегда, посоветую не тянуть с апгрейдом оперативной памяти, а еще лучше сразу же взять комплект объемом 16 Гбайт.
С таким ПК можно спокойно играть ближайшие пару лет во все современные игры в разрешении Full HD на высоких и максимальных настройках качества графики.
|
Базовая сборка
|
Процессор |AMD Ryzen 5 1600X, 6 ядер и 12 потоков, 3,6 (4,0) ГГц, 8+8 Мбайт L3, AM4, OEM
|11 500 руб.
|Intel Core i5-8400, 6 ядер, 2,8 (4,0) ГГц, 9 Мбайт L3, LGA1151-v2, OEM
|13 500 руб.
|
Материнская плата |AMD B350
|Пример:
• ASRock AB350M Pro4
|5 500 руб.
|Intel B360 Express
|Пример:
• ASRock B360M Pro4
|6 000 руб.
|
Оперативная память |16 Гбайт DDR4-3000 для AMD:
• G.Skill Aegis F4-3000C16D-16GISB
|8 000 руб.
|16 Гбайт DDR4-2666 для Intel:
• Patriot Viper Elite (PVE416G266C6KGY)
|7 000 руб.
|
Видеокарта |NVIDIA GeForce GTX 1660 Ti 6 Гбайт
• Palit StormX
|21 000 руб.
|
Накопители |SSD, 240-256 Гбайт, SATA 6 Гбит/с
|Примеры:
• Crucial BX500 (CT240BX500SSD1);
• ADATA Ultimate SU655 (ASU655SS-240GT-C)
|2 500 руб.
|HDD по вашему желанию
|—
|
Процессорный кулер |DeepCool GAMMAXX 200T
|1 000 руб.
|
Корпус |Примеры:
• Cougar MX330;
• AeroCool Cylon Black;
• Thermaltake Versa N26
|3 000 руб.
|
Блок питания |Примеры:
• Be Quiet System Power 9 600 Вт
|4 000 руб.
|
Итого |AMD — 56 500 руб.
Intel — 58 000 руб.
В комментариях к прошлому выпуску предложили использовать Core i3-8100 именно в базовой сборке. Действительно, при цене (вместе с кулером) в 10 000 рублей 4-ядерный Coffee Lake сюда подходит. Только за 12 500 рублей (вместе с кулером) мы можем взять уже 12-поточный Ryzen 5 1600X, а за 13 500 рублей — Core i5-8400 или Ryzen 5 2600X. Лучше воспользоваться этими предложениями.
Еще недавно за Core i5-8400 просили 20 000 рублей. Считаю, что за 13 500 рублей этот чип с натяжкой можно использовать в базовой сборке. Для пущей экономии, чтобы конфигурация Intel не оказалась заметно дороже системы AMD, вместе с младшим 6-ядерным Coffee Lake рекомендую приобрести недорогую плату на базе набора логики B360 Express и 16 Гбайт оперативной памяти DDR4-2666 — недорогой комплект.
Кстати, за последние 30 дней подешевел Core i5-9400F — он стоит на… 20 рублей меньше Core i5-8400. Возможно, именно появление этой новинки сказалось на том, что младший 6-ядерник Intel так обесценился. В любом случае при такой разнице в цене нет смысла брать чип с заблокированным графическим ядром — лучше взять полноценную модель.
Раньше я использовал вместе с 6-ядерными чипами Intel самые дешевые материнские платы на базе H310 Express. Однако в прошлом году на нашем сайте было опубликовано тестирование «Обзор 5 бюджетных материнских плат на Intel H310 Express: есть ли смысл экономить?», показавшее, что такие устройства при серьезной нагрузке еле справляются (а некоторые не справляются вовсе) даже с Core i5-8400. Поэтому предлагаю перестраховаться и взять чуть более «презентабельную» матплату.
В базовой сборке AMD, естественно, уже используется плата на базе чипсета B350. Практика показывает, что материнки уровня ASUS PRIME B350-PLUS и ASRock AB350 Pro4 справятся с оверклокингом Ryzen 5 до частоты 3,8-3,9 ГГц. Только не «задирайте» очень высоко процессорное напряжение — подсистемы питания обозначенных матплат не предназначены для слишком серьезных нагрузок.
В принципе, в базовую сборку можно сразу же ставить Ryzen 5 2600X и не задумываться ни о каком разгоне. Такой ход увеличит стоимость системы на 2 000 рублей.
В прошлом выпуске в базовой сборке впервые появилась видеокарта GeForce GTX 1660 Ti. Этот ускоритель графики догоняет GeForce GTX 1070, но обладает всего 6 Гбайт видеопамяти. Последние несколько месяцев я не ставил в систему Radeon RX 580 и Radeon RX 590, так как они стоили намного больше Radeon RX 570, но при этом не предлагали заметно более высокого уровня быстродействия в играх. Появление GeForce GTX 1660 Ti решает эту задачку.
В апреле «Регард» предлагает уже 16 моделей GeForce GTX 1660 Ti по цене от 21 000 до 28 500 рублей. 7 500 рублей — серьезный разброс, когда наш бюджет ограничен 50-60 тысячами рублей. Считаю, что в нашем случае надо брать наиболее дешевую версию GeForce GTX 1660 Ti. Помните, мы проводили сравнительное тестирование 9 различных модификаций GeForce GTX 1060? Уровень TDP процессора GP106 составляет 120 Вт. Тестирование показало, что даже простенькие кулеры вполне эффективно охлаждают такой чип, а также всю внешнюю обвязку. Уверен, хорошо будут работать и бюджетные версии GeForce GTX 1660 Ti, ведь TDP процессора TU116 тоже составляет 120 Вт.
А еще в марте NVIDIA представила GeForce GTX 1660 попроще — без приставки Ti. Наше подробное тестирование показывает, что в играх в разрешении Full HD новинка оказывается быстрее Radeon RX 590 на 8 %, но на 15 % медленнее GeForce GTX 1660 Ti и GeForce GTX 1070. К сожалению, на момент написания статьи какие-либо варианты GeForce GTX 1660 в продажу не поступили. Официально рекомендованная цена очередного Turing-адаптера, не поддерживающего аппаратную трассировку лучей, составляет 18 000 рублей, поэтому, возможно, со временем в базовой сборке все же появится именно эта видеокарта.
Напоминаю, что в сборках «Компьютера месяца» я больше не рекомендую жесткий диск определенного объема. Просто в комментариях к каждому выпуску постоянно возникают дискуссии на этот счет. Одни считают, что HDD в компьютере уже давно не нужен. Другие не готовы тратиться на SSD, считая, что от него нет толку в игровом ПК. Третьи насмехаются над объемом, предлагая накопители на 3, 4 терабайта и больше. Как видите, всем не угодишь. Согласен с мнением, что организация дисковой подсистемы в ПК — это сугубо индивидуальный подход. Поэтому поступайте так, как считаете нужным.
Система, которой по силам в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики в разрешении Full HD и на высоких настройках в разрешении WQHD.
|
Оптимальная сборка
|
Процессор |AMD Ryzen 5 2600X, 6 ядер и 12 потоков, 3,6 (4,2) ГГц, 8+8 Мбайт L3, AM4, OEM
|13 500 руб.
|Intel Core i5-8400, 6 ядер, 2,8 (4,0) ГГц, 9 Мбайт L3, LGA1151-v2, OEM
|13 500 руб.
|
Материнская плата |AMD 350/450
|Примеры:
• Gigabyte B450 AORUS ELITE
|7 500 руб.
|Intel Z370 Express
|Примеры:
• ASUS PRIME Z370-P II
|9 500 руб.
|
Оперативная память |16 Гбайт DDR4-3000:
• G.Skill Aegis F4-3000C16D-16GISB
|8 000 руб.
|
Видеокарта |NVIDIA GeForce GTX 1070, 8 Гбайт GDDR5:
• Palit JetStream
AMD Radeon RX Vega 56:
• ASUS ROG-STRIX-RXVEGA56-O8G-GAMING
|27 000 руб.
|
Накопители |SSD, 240-250 Гбайт, SATA 6 Гбит/с
|Примеры:
• Samsung 860 EVO MZ-76E250;
• Intel SSD 545s
|4 500 руб.
|HDD по вашему желанию
|—
|
Процессорный кулер |Примеры:
• PCcooler GI-X6R
|2 000 руб.
|
Корпус |Примеры:
• Cooler Master MasterBox MB511;
• Cougar MX350
|4 500 руб.
|
Блок питания |Примеры:
• Be Quiet Pure Power 11-CM 600 Вт
|6 500 руб.
|
Итого |AMD — 73 500 руб.
Intel — 75 500 руб.
Смотрите, в оптимальной сборке тоже стоит Core i5-8400. Как я уже отметил ранее, за 13 500 рублей этот процессор можно покупать, приструнив свою жабу. А вот модель Core i5-8500, частота которой всего на 100 МГц выше (при загрузке всех 6 ядер), стоит уже 17 500 рублей. Не хочу вдаваться в подробности, почему так происходит, но смысл приобретать этот чип по такой цене исчезает напрочь.
Поступим по-другому. Возьмем в дополнение к Core i5-8400 плату на базе чипсета Z370 Express или Z390 Express. Да, у нас процессор, который невозможно разогнать. Однако ускорить его мы сможем при помощи быстрой оперативной памяти. Наши тесты показывают, что связка «Core i5-8400 + DDR4-3200» по уровню производительности не уступает тандему «Core i5-8500 + DDR4-2666». К тому же такая плата со временем позволит заменить младший 6-ядерник чем-то более интересным и производительным.
В марте на нашем сайте вышел обзор материнской платы ASUS Prime Z390-A. Мой коллега Сергей Лепилов утверждает, что протестированное устройство станет отличной «рабочей лошадкой», поскольку у него нет ничего лишнего, но при этом есть все нужное для повседневной работы или развлечений, а предлагается оно за вполне приемлемые деньги. Если нужно будет разогнать процессор или память, то пожалуйста — есть функциональный BIOS и хорошо охлаждаемые силовые цепи достаточной мощности, а также исчерпывающие возможности мониторинга и управления семью вентиляторами одновременно.
С выбором процессора для платформы AM4 всё довольно просто. Я делаю ставку на чип Ryzen 5 2600X. Прелесть этого процессора заключается в том, что его... нет смысла разгонять. В играх его частота (при наличии хорошего кулера) меняется в диапазоне от 4,1 до 4,3 ГГц. Остается только подобрать этому чипу комплект памяти, который будет гарантированно работать на высокой частоте.
Вариантом менее банальным станет покупка младшего 8-ядерника Ryzen 7 1700 (16 000 рублей). Рекомендую этот процессор разогнать хотя бы до 3,9 ГГц — в таком режиме работы системы покажут примерно одинаковый уровень производительности в играх, но в ресурсоемких задачах сборка с Ryzen 7 окажется заметно быстрее. Без оверклокинга Ryzen 5 2600X оказывается быстрее Ryzen 7 1700 из-за приличной разницы в тактовой частоте.
Я до сих пор сталкиваюсь с тем, что материнские платы на базе чипсетов A320, B350 и X370 продаются со старыми версиями BIOS. Установив в такое устройство Ryzen второго поколения, вы, конечно же, получите неработоспособную систему. Обновить прошивку матплаты можно самостоятельно, вооружившись процессором Ryzen первого поколения, или же попросите это сделать в гарантийном отделе магазина, в котором была куплена плата.
В этом месяце для оптимальной сборки продолжаем ориентироваться на модели GeForce GTX 1070, GeForce GTX 1070 Ti и Radeon RX Vega 56. Так как в продаже появилось просто огромнейшее количество GeForce GTX 1660 Ti и GeForce RTX 2060, то стоимость первых трех поползла вниз. Акция невиданной щедрости продолжается — ASUS ROG-STRIX-RXVEGA56-O8G-GAMING все еще продается за 27 000 рублей. Отрадно, что GeForce GTX 1070 и GeForce GTX 1070 Ti тоже дешевеют, но эти карты постепенно исчезают из продажи. Я уже говорил о том, что у нас есть последние пара месяцев на то, чтобы «урвать» эти, безусловно, отличные игровые ускорители с 8 Гбайт видеопамяти за вменяемую сумму. А дальше, по всей видимости, все же придется ориентироваться на GeForce RTX 2060 или брать недорогую GeForce GTX 1660 Ti.
Постоянные читатели знают мое отношение к графическим адаптерам с шестью или менее гигабайтами видеопамяти. Так, в предыдущих выпусках я все равно ставил в систему GeForce GTX 1070 или Radeon RX Vega 56, потому что через два-три года эти устройства все еще будут в строю, а вот у GeForce GTX 1660 Ti и GeForce RTX 2060 могут начаться проблемы — особенно у последней, так как трассировка лучей серьезно увеличивает потребление VRAM.
Системы, которым по силам в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики в разрешении Full HD и на максимальных настройках в разрешении WQHD.
|
Продвинутая сборка
|
Процессор |AMD Ryzen 7 1800X, 8 ядер и 16 потоков, 3,6 (4,0) ГГц, 8+8 Мбайт L3, AM4, OEM
|17 500 руб.
|Intel Core i7-8700, 6 ядер и 12 потоков, 3,2 (4,6) ГГц, 12 Мбайт L3, LGA1151-v2, OEM
|24 000 руб.
|
Материнская плата |AMD B450
|Примеры:
• ASUS ROG STRIX B450-F GAMING
|10 000 руб.
|Intel Z390 Express
|Примеры:
• ASUS TUF Z390-PLUS GAMING;
• Gigabyte Z390 GAMING SLI
|12 000 руб.
|
Оперативная память |16 Гбайт DDR4-3000:
• G.Skill Aegis F4-3000C16D-16GISB
|8 000 руб.
|
Видеокарта | NVIDIA GeForce RTX 2070, 8 Гбайт GDDR6:
• MSI RTX 2070 VENTUS 8G
|38 000 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 480-512 Гбайт, SATA 6 Гбит/с
|Примеры:
• Samsung 860 EVO MZ-76E250;
• Intel SSD 545s
|7 500 руб.
|
Процессорный кулер |Примеры:
• PCcooler GI-X6R
|2 000 руб.
|
Корпус |Примеры:
• NZXT S340 Black/Blue;
• Cooler Master MasterBox 5;
• DeepCool EARLKASE RGB V2
|5 000 руб.
|
Блок питания |Примеры:
• Be Quiet Pure Power 11-CM 600 Вт
|6 500 руб.
|
Итого |AMD — 94 500 руб.
Intel — 103 000 руб.
Описание продвинутой сборки последние несколько месяцев у меня начинается с довольно стандартного обряда: я сравниванию цены на 8-ядерные процессоры Ryzen 7 1800X и Ryzen 7 2700. В системе AMD используется первый процессор, потому что он быстрее, но в то же время стоит меньше — в апреле, правда, всего на 500 рублей. А за 13 500 рублей вы можете приобрести Ryzen 7 1700. Если вы его разгоните хотя бы до 3,8-3,9 ГГц, то прилично сэкономите, но получите схожий по производительности чип. С другой стороны, разгоном занимается абсолютное меньшинство пользователей, поэтому не всем подойдут такие рекомендации. И да, «кухонный» оверклокинг — дело сугубо добровольное, я его никому не навязываю.
Если с «красным» чипом все ясно, то с процессором для платформы Intel приходится ломать голову. Вы, конечно, обратили внимание, что в продвинутой сборке рекомендуется Core i7-8700, которые стоит заметно больше Ryzen 7 1800X, а потому LGA1151-система выходит заметно дороже. Альтернатива у Core i7-8700 только одна — это Core i5-9600K, который стоит на 3 000 рублей меньше. Все же я считаю, что в рамках продвинутой сборки лучше взять систему либо с Ryzen 7 1800X, либо с Core i7-8700. При втором варианте переплата в 3 000 рублей в данном конкретном случае выглядит вполне логичной.
К тому же уже совсем скоро производители еще увеличат число потоков в своих новых процессорах. Наверняка этот факт в скором времени отразится и на игровой индустрии. К плюсам же Core i5-9600K, помимо меньшего ценника (относительно Core i7), можно отнести разве что наличие свободного множителя тактовой частоты. С его помощью частоту этого «камня» легко увеличить с 4,3 до 4,5-4,7 ГГц при загрузке всех шести ядер.
Представленная в таблице система охлаждения, кстати, справится с такой задачей при условии, что параметр VCore центрального процессора не будет «задран» выше отметки в 1,25 В. (Обзор PCCooler GI-X6R вышел, кстати, на нашем сайте в прошлом месяце.)
Видеокарта GeForce RTX 2070 — не устану это повторять — является самым успешным продуктом NVIDIA, выпущенным за последние полгода. Ускоритель оказывается заметно быстрее GeForce GTX 1080, поэтому прямого конкурента у него нет (Radeon RX Vega 64 не тянет, увы). При этом в разгоне GeForce RTX 2070 вплотную приближается к GeForce RTX 2080 — с небольшой натяжкой, но продвинутую сборку можно рекомендовать и для игр в разрешении Ultra HD.
Обратите внимание, что в продвинутой сборке изменился накопитель. Раньше я рекомендовал модель ADATA XPG SX8200 — SSD с интерфейсом PCI Express x4 3.0, весьма производительное решение в своем классе. Однако за эти же деньги мы можем взять SATA-накопитель большего объема. С учетом того, что в сборках уже давно отсутствуют жесткие диски, я решил поступить в этот раз именно таким образом. А вот в более дорогих сборках без NVMe-накопителей, полагаю, уже не обойтись.
Кстати, в продаже уже попадаются NVMe-накопители, которые в плане стоимости не уступают своим «сородичам», оснащенным SATA-интерфейсом. Например, в марте мы рассказали про Crucial P1 — его рекомендованная цена соответствует цене Samsung 860 EVO. При этом производительность Crucial P1 в целом выше, по крайней мере, если говорить о типовых сценариях использования, характерных для среднестатистических домашних или офисных ПК. Но есть и несколько нюансов. Во-первых, этот SSD основывается на QLC 3D NAND — памяти с четырёхбитовыми ячейками, которая работает заметно медленнее привычной TLC-памяти. Поэтому в ряде ситуаций производительность Crucial P1 может оказаться заметно ниже ожидаемых значений. Например, для него характерна очень низкая скорость записи в основной массив памяти, которая проявляется при исчерпании свободного места в SLC-кеше. Во-вторых, для Crucial P1 декларируется в разы более низкая выносливость по сравнению с показателями TLC-моделей. В-третьих, почему-то в России некоторые накопители Crucial продают по заметно более высоким ценам.
Такие системы способны в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики как в разрешении Full HD, так и в WQHD. В 4K-разрешении максимальная конфигурация «тянет» ААА-проекты на высоких настройках качества графики.
|
Максимальная сборка
|
Процессор |AMD Ryzen 7 2700X, 8 ядер и 16 потоков, 3,7 (4,3) ГГц, 8+8 Мбайт L3, AM4, OEM
|24 000 руб.
|Intel Core i7-8700K, 6 ядер и 12 потоков, 3,7 (4,7) ГГц, 12 Мбайт L3, LGA1151-v2, OEM
|26 500 руб.
|
Материнская плата |AMD X470
|Примеры:
• ASUS PRIME X470-PRO;
• Gigabyte X470 AORUS Gaming 5 WiFi
|13 500 руб.
|Intel Z390 Express
|Примеры:
• MSI MPG Z390 GAMING EDGE AC;
• Gigabyte Z390 AORUS PRO
|15 000 руб.
|
Оперативная память |32 Гбайт DDR4-3000:
• G.Skill Aegis (F4-3000C16D-32GISB)
|15 000 руб.
|
Видеокарта |NVIDIA GeForce RTX 2080 8 Гбайт GDDR6:
• Palit JetStream
|53 000 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 480-512 Гбайт, PCI Express x4 3.0
|Пример:
• Samsung 970 EVO Plus Series (MZ-V7S500BW)
|10 500 руб.
|
Процессорный кулер |Примеры:
• GELID Phantom Black
|4 500 руб.
|
Корпус |Примеры:
• NZXT S340 Black/Blue;
• Cooler Master MasterBox 5;
• DeepCool EARLKASE RGB V2
|5 000 руб.
|
Блок питания |Примеры:
• Be Quiet Pure Power 11-CM 600 Вт
|6 500 руб.
|
Итого |AMD — 132 000 руб.
Intel — 140 000 руб.
Если в ранее рассмотренных системах постоянно что-то меняется, то максимальную и экстремальную сборки смело можно назвать оплотом стабильности. Все очень просто: чем больше компромиссов — тем больше споров. При наличии же 150 000 рублей многие вопросы отпадают сами.
Многие, но не все. Начнем с выбора центрального процессора. Уже давно в конфигурацию Intel я рекомендую нашего старого знакомого — Core i7-8700K, хотя в максимальной сборке отлично смотрелся бы и 8-ядерный Core i7-9700K. В прошлом году эти чипы стоили примерно одинаково — около 30-33 тысяч рублей. Сейчас же 6-ядерный Coffee Lake несколько сбавил в цене, поэтому мы его и выбираем. Наши тесты показывают, что при использовании видеокарты GeForce RTX 2080 Ti все же чуть быстрее оказывается сборка с Core i7-9700K. Однако в максимальной сборке используется менее процессорозависимая видеокарта, да и тот же Core i7-8700K всегда можно разогнать до 4,7 ГГц без скальпирования. Плюс сборку с GeForce RTX 2080 некоторые игроки приобретают для разрешений WQHD и Ultra HD — в таких условиях разницы между этими процессорами практически не будет.
Вторым дискуссионным моментом является выбор видеокарты. На момент написания статьи в «Регарде» продавалось сразу пять Radeon VII от пяти же производителей. Как мы знаем, пока можно приобрести только видеокарту с эталонным дизайном (не слишком удачным, так как адаптер под нагрузкой работает очень шумно). Естественно, раз они все одинаковые, надо брать самую дешевую, а это 55 000 рублей. Столько же стоит недорогой кастом GeForce RTX 2080. Что ж, наши тесты показывают, что в большинстве случаев Turing-адаптер оказывается быстрее «семерки», но в целом эти карты демонстрируют весьма и весьма схожие результаты. Плюсом Radeon VII, конечно же, является наличие 16 Гбайт видеопамяти. Только вот когда такая «навеска» скажется на производительности в современных играх — не известно никому. Просто там, где компьютерной игре требуется больше, например, 10-11 Гбайт VRAM (4K-разрешение, максимальное качество графики, сглаживание), уже не будет справляться GPU. В скором времени на нашем сайте выйдет подробный разбор этой очень интересной темы.
А еще скоро в рамках рубрики «Оптимальный игровой ПК» выйдет подробный обзор максимальной сборки — с наглядными примерами системных блоков и тестированием.
Система актуальна для современных игр в разрешении Ultra HD с использованием максимальных настроек качества графики.
|
Экстремальная сборка
|
Процессор |Intel Core i9-9900K, 8 ядер и 16 потоков, 3,6 (5,0), 16 Мбайт L3, OEM
|41 500 руб.
|
Материнская плата |Intel Z390
|Примеры:
• MSI MEG Z390 ACE;
• ASRock Z390 Taichi Ultimate
|22 500 руб.
|
Оперативная память |32 Гбайт DDR4-3200:
• G.Skill Trident Z F4-3200C14D-32GTZ
|31 500 руб.
|
Видеокарта |NVIDIA GeForce RTX 2080 Ti, 11 Гбайт GDDR6
|90 000 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 1 Тбайт, PCI Express x4 3.0
|Пример:
• Samsung 970 PRO MZ-V7P1T0BW
|25 500 руб.
|
Процессорный кулер |Примеры:
• NZXT Kraken X62
|12 000 руб.
|
Корпус | Пример:
• Be Quiet Silent Base 801 Window Black
|11 500 руб.
|
Блок питания | Примеры:
• SeaSonic SSR-1000FX FOCUS Plus Gold 1000 Вт;
• Enermax Platimax D.F. (EPF1050EWT) 1050 Вт
|13 500 руб.
|
Итого |248 000 руб.
Достаточно подробно про экстремальную сборку было написано в прошлом выпуске «Компьютера месяца». Перед вами самая дорогая и самая быстрая сборка рубрики. Насколько она получилась быстрой, вы можете узнать здесь. Есть неоспоримый факт: экстремальная сборка еще несколько месяцев не претерпит никаких изменений. Просто потому, что на данный момент не выпущено ничего более производительного для массовых платформ AMD и Intel. Думаю, с появлением чипов Ryzen 3000 многое изменится. Ну и GeForce RTX 2080 Ti по-прежнему остается… непоколебимым флагманом среди игровых видеокарт, если не брать в расчет безумно дорогую и, откровенно говоря, бесполезную для наших целей TITAN RTX.
Как я уже сказал, перед вами самая дорогая и самая быстрая система «Компьютера месяца». Я никогда не скрывал, что экстремальная сборка — это в том числе и имиджевая конфигурация. Мы можем ее заметно удешевить, но при этом получить схожий уровень производительности в играх. Например, вместо Core i9-9900K можно использовать 6-ядерный Core i7-8700K — в 4K-разрешении при использовании максимального качества графики в играх вы получите очень схожий уровень быстродействия. Можно использовать и платформу AM4 вместе с Ryzen 7 2700X — результат (ссылку с доказательствами я уже привел) будет схожим. Собственно говоря, поэтому 8-ядерник AMD я и не ставлю в экстремальную сборку, он используется максимальной конфигурации.
Мы можем заметно поднять цену экстремальной сборки, но при этом опять же получить то же самое, если речь идет об играх в разрешении Full HD. Самый простой и одновременно самый бесполезный способ — это, пожалуй, покупка второй GeForce RTX 2080 Ti. Да, такие технологии, как AMD CrossFire и NVIDIA SLI, переживают не самые лучшие времена.
Вторым способом распрощаться еще с одним дипломатом денег станет сборка экстремальной системы на базе какого-нибудь HEDT-процессора. У AMD есть платформа TR4, у Intel — LGA2066. Собирать ПК с 10-, 12-, 16- и так далее ядерными процессорами есть смысл, если вы не только, скажет так, потребляете контент, но и создаете его. В остальных случаях лучше использовать менее дорогие и более универсальные платформы AM4 и LGA1151-v2.
Приведу наглядный пример: в марте на нашем сайте вышел обзор 10-ядерного процессора Core i9-9900X. Этот чип на фоне Core i9-9900K оказывается заметно быстрее при выполнении ресурсоемких задач, связанных с рендерингом, кодированием, шифрованием, компиляцией и архивацией. Однако в играх Х-чип полностью «сливает» флагманскому Coffee Lake Refresh в разрешении Full HD. В Ultra HD процессоры демонстрируют схожий уровень производительности в большинстве игр, но в данном случае необходимо учитывать такой фактор, как запас на будущее. У Core i9-9900K он заметно больше, и через 3-4 года вы без проблем замените GeForce RTX 2080 Ti чем-то заметно более производительным.
[
*Шепотом*] Только не вздумайте брать Core i9-9900X — наш обзор наглядно дает понять, что при таком позиционировании десятиядерные Skylake-X не выдерживают никакой конкуренции с представителями семейства AMD Ryzen Threadripper, которые при заметно более низкой цене предлагают существенно большее число ядер и, соответственно, лучшую производительность.
Ниже представлен список полезных статей, которые помогут вам в выборе тех или иных комплектующих, а также при самостоятельной сборке ПК: |
985,185 | Обзор NVMe SSD-накопителя WD Black SN750: лавировали, да не вылавировали | Прошедший 2018 год стал для NVMe-накопителей периодом интенсивного роста. За это время многие производители разработали и представили продукты, которые заметно подняли общий уровень решений, работающих через шину PCI Express. Линейная производительность передовых NVMe SSD стала приближаться к пропускной способности интерфейса PCI Express 3.0 x4, а скорость при произвольных операциях увеличивалась по сравнению с предложениями предшествующих поколений в разы.
В свете этого совершенно неудивительно, что на рынок пришло немало интересных решений. Лучшими потребительскими накопителями в прошлом году последовательно становились прорывные Intel SSD 760p, WD Black NVMe и ADATA XPG SX8200, и все они смотрелись на уровне предшествующих NVMe-моделей как представители совершенно нового поколения – настолько серьёзным был прирост скоростных характеристик. Символом перемен также стало и то, что впервые за несколько лет компания Samsung потеряла звание поставщика наиболее интересных массовых SSD: предлагавшийся ей в течение прошлого года накопитель Samsung 960 EVO из-за повышенной активности конкурентов стал далеко не лучшим вариантом. И казалось, начавшийся интенсивный рост уже не остановить, а в 2019 году активное улучшение массовых NVMe SSD будет продолжаться.
Однако первые месяцы нынешнего года говорят об обратном: похоже, на прошлогодний рывок производители растратили все свои силы, и максимум, что мы можем увидеть в ближайшее время, – это постепенные обновления прошлогодних продуктов. За примерами ходить далеко не нужно. Сегодня мы познакомимся с очередным NVMe SSD компании Western Digital, WD Black SN750, и это – уже третья в этом году новинка, созданная без внесения каких-либо кардинальных изменений в базовой архитектуре накопителя. В продуктах, с которыми мы сталкиваемся в этом году, производители не балуют нас принципиально новыми подходами и аппаратными решениями. Всё ограничивается либо сменой флеш-памяти на более современные её разновидности, либо вообще исключительно оптимизациями на уровне микропрограммы.
Впрочем, мы совсем не хотим сказать, что такой подход заведомо не может дать хороших результатов. Есть прекрасный пример: новый накопитель Samsung 970 EVO Plus, который отличается от предшественника заменой старой 64-слойной на более современную 96-слойную TLC 3D V-NAND, неожиданно установил новые ориентиры производительности для рыночного сегмента потребительских NVMe SSD.
Но так выходит далеко не всегда и не у всех. Например, новая версия накопителя ADATA XPG SX8200, получившая в названии окончание Pro, получила такие оптимизации микропрограммы, что лучше бы их и не было вовсе. Накопитель стал быстрее предшественника исключительно в бенчмарках, при этом реального улучшения скоростных показателей или других характеристик он не предлагает.
То, что сделала Western Digital, на первый взгляд больше похоже на по подход ADATA. Дело в том, что WD Black SN750 – это аналог прошлогоднего накопителя WD Black NVMe (он имел модельный номер SN720) с подкорректированной микропрограммой. Однако не будем спешить с выводами, кто знает, как это могло сказаться на производительности. В конце концов, Western Digital один раз уже преподносила нам неожиданный и приятный сюрприз, когда вслед за медленной и ничем не примечательной первой версией WD Black PCIe вышла вторая версия WD Black NVMe, изменившая вообще всё и ставшая одним из лучшим потребительских NVMe SSD прошлого года. Поэтому, как только третья версия «чёрного» накопителя Western Digital добралась до России, мы сразу же решили его протестировать. Давайте поглядим, может быть у Western Digital снова получилось переплюнуть Samsung и сделать что-то поинтереснее, чем Samsung 970 EVO Plus?
Для вышедшего в прошлом году накопителя Black NVMe (SN720) компания Western Digital полностью обновила аппаратную платформу. Производитель подошёл к разработке этого SSD со всей ответственностью: для него даже был создан специальный проприетарный модульный контроллер, который, как планировалось изначально, в различных вариациях должен был постепенно распространить свой ореол обитания и на другие NVMe SSD компании. Новый Black SN750, о котором мы говорим сегодня, полностью вписывается в изначальный замысел: его ключевой компонент унаследован от предшественника. В нём снова применён тот же самый трёхъядерный 28-нм контроллер, созданный перешедшей под крыло Western Digital инженерной командой SanDisk.
Впрочем, несменяемость контроллера вряд ли стоит считать чем-то плохим. Микросхема SanDisk вполне достойно проявила себя в Black NVMe образца 2018 года, и, несмотря на сравнительно небольшое число ядер ARM Cortex-R, без проблем обеспечивала очень достойные показатели производительности.
Не изменилась по сравнению с прошлой версией SSD и флеш-память. Как тогда, так и сейчас, Western Digital использует для своего флагманского продукта фирменную 64-слойную BiCS3-память (TLC 3D NAND) с 256-гигабитным размером кристаллов. И вот этот момент, честно говоря, вызывает куда большие вопросы. Дело в том, что пробные поставки более совершенной 96-слойной флеш-памяти четвёртого поколения (BiSC4) Western Digital анонсировала ещё в середине прошлого года. И было бы вполне закономерным, если в сегодняшней версии флагманского накопителя компании появилась бы именно такая память. Тем более что производственный партнёр Western Digital, компания Toshiba, начала поставлять накопители на базе BiCS4-памяти ещё в сентябре прошлого года (соответствующая модель называется XG6). Однако что-то у Western Digital пошло не так, и переход на 96-слойную флеш-память не состоялся, в результате чего новый Black SN750 с точки зрения аппаратной конфигурации оказался полностью подобен прошлой версии «чёрного» флагмана.
В защиту своей новинки производитель говорит, что серьёзные изменения сделаны на уровне прошивки, и переработанная программная часть вполне может обеспечить рывок в скоростных показателях. Однако здесь стоит напомнить, что тот контроллер SanDisk, на котором базируются накопители Western Digital, характеризуются аппаратной реализацией многих алгоритмов, для которых обычно применяется программные подходы.
И этот факт заставляет усомниться в том, что какими-то оптимизациями микропрограммы производительность очередного представителя семейства Black действительно можно как-то кардинально улучшить. Но, судя по всему, маркетинговый отдел Western Digital нашего скепсиса не разделяет. Список характеристик новинки составлен так, будто Black SN750 – это действительно заметно лучший продукт на фоне прошлого Black NVMe. Паспортные скорости случайного чтения и записи, а также быстродействие при мелкоблочном чтении, согласно официальным данным, увеличились на 3-7 %. А быстродействие при произвольной записи выросло сразу на величину до 40 %, что главным образом и должно обеспечивать лучшую работу новой модели в реальных условиях.
Если же говорить о конкретных числах, то официальные спецификации WD Black SN750 приобрели следующий вид.
|
Производитель |
Western Digital
|Серия
|
WD Black SN750 NVMe SSD
|Модельный номер
|WDS250G3X0C
|WDS500G3X0C
WDS500G3XHC
|WDS100T3X0C
WDS100T3XHC
|WDS200T3X0C
WDS100T3XHC
|Форм-фактор
|M.2 2280
|Интерфейс
|PCI Express 3.0 x4 – NVMe 1.3
|Ёмкость, Гбайт
|250
|500
|1000
|2000
|
Конфигурация
|Микросхемы памяти: тип, техпроцесс, производитель
|SanDisk 64-слойная BiCS3 3D TLC NAND
|Контроллер
|SanDisk 20-82-007011
|Буфер: тип, объем
|DDR4-2400,
256 Мбайт
|DDR4-2400,
512 Мбайт
|DDR4-2400,
1024 Мбайт
|DDR4-2400,
2048 Мбайт
|
Производительность
|Макс. устойчивая скорость последовательного чтения, Мбайт/с
|3100
|3470
|3470
|3400
|Макс. устойчивая скорость последовательной записи, Мбайт/с
|1600
|2600
|3000
|2900
|Макс. скорость произвольного чтения (блоки по 4 Кбайт), IOPS
|220 000
|420 000
|515 000
|480 000
|Макс. скорость произвольной записи (блоки по 4 Кбайт), IOPS
|180 000
|380 000
|560 000
|550 000
|
Физические характеристики
|Потребляемая мощность: бездействие/чтение-запись, Вт
|0,1/9,24
|MTBF (среднее время наработки на отказ), млн ч.
|1,75
|Ресурс записи, Тбайт
|200
|300
|600
|1200
|Габаритные размеры: ДхВхГ, мм
|80 х 22 х 2,38 – без радиатора
80 х 24,2 х 8,1 – с радиатором
|Масса, г
|7,5 – без радиатора
33,2 – с радиатором
|Гарантийный срок, лет
|5
С учётом того, что все улучшения в производительности достигаются одними лишь исправлениями микропрограммы, возникает вполне естественный вопрос о том, получат ли подобное улучшение уже выпущенные WD Black NVMe образца 2018 года. И к сожалению, ответ на него отрицательный. Western Digital отказалась прямо объяснить, почему прошивку SN750 нельзя применить в SN720, но мы полагаем, что новая микропрограмма выводит контроллер на более высокую тактовую частоту, и для того, чтобы это не вызывало никаких проблем, на этапе производства к чипам для SN750 применяются более жёсткие требования по качеству полупроводниковых кристаллов. Собственно, в ассортименте Western Digital недавно появилось NVMe-решение более низкого уровня – Blue SN500, и благодаря этому у компании теперь есть естественная возможность дифференцировать контроллеры по качеству кремния, не увеличивая долю брака.
Вместе с увеличением частоты контроллера помочь в улучшении производительности Black SN750 могла и реорганизация принципов работы SLC-кеширования. Если говорить о Black NVMe, то SLC-кеш в этом накопителе был далеко не так эффективен. Разработчики использовали самую простую статическую схему, причём объём флеш-памяти, работающей в ускоренном режиме, был достаточно небольшим – всего около 3 Гбайт на каждые 250 Гбайт ёмкости SSD. Но и новая версия Black SN750, к сожалению, в этом направлении никаких существенных улучшений не получила. SLC-кешем вновь работает фиксированная область массива флеш-памяти аналогичного размера. Следовательно, все старые претензии к SLC-кешу Black SN750 сохраняются.
В качестве иллюстрации приведём традиционный график, на котором показано, как выглядит производительность обновлённой полутерабайтной модели WD Black SN750 при непрерывной последовательной записи.
И действительно, этот график практически полностью идентичен графику скорости последовательной записи, который мы получали для WD Black NVMe. Причём это касается не только того объёма данных, после записи которого наблюдается снижение быстродействия, но и абсолютных величин скорости записи.
Но кое-какие серьёзные нововведения новый WD Black SN750 всё-таки предлагает. Например, теперь в модельном ряду появилась версия накопителя объёмом 2 Тбайт. Правда, нужно иметь в виду, что для её создания производителю пришлось прибегнуть к использованию 512-гигабитных чипов вместо 256-гигабитных, и это, как часто случается в таких ситуациях, не лучшим образом сказалось на производительности. Даже по паспортным спецификациям 2-Тбайт накопитель медленнее, чем 1-Тбайт.
Второе принципиальное нововведение – появление у SSD специального игрового режима (Gaming Mode), ориентированного на энтузиастов, которые хотят получить максимально возможную производительность. В нём для накопителя отключаются энергосберегающие функции (Autonomous Power State Transitions), что позволяет минимизировать задержки при первичных обращениях к данным. Игровой режим для Black SN750 включается в фирменной утилите Western Digital SSD Dashboard, где теперь добавлен соответствующий переключатель.
Впрочем, не стоит думать, что Gaming Mode – это какая-то волшебная технология, способная качественно поменять ситуацию с производительностью. Тесты показывают, что рост показателей практически незаметен. Небольшие перемены к лучшему видны лишь в синтетических бенчмарках и лишь при мелкоблочных операциях в отсутствие очереди запросов.
Тем не менее для десктопных систем мы бы всё-таки порекомендовали активировать изначально отключенный Gaming Mode. Прирост производительности он всё же обеспечивает, пусть и небольшой. При этом никаких негативных явлений, помимо незначительного увеличения энергопотребления, которое в настольных компьютерах вряд ли будет заметным, этот режим не привносит.
Что же касается условий гарантии и задекларированного ресурса, то в этом отношении WD Black SN750 полностью подобен прошлой модели. Срок гарантийного обслуживания установлен в рядовые пять лет, за которые пользователю разрешено полностью перезаписать накопитель 600 раз. Исключение сделано лишь для младшей версии объёмом 250 Гбайт: для неё ресурс увеличен до 800-кратной перезаписи SSD за время службы.
⇡#Внешний вид и внутреннее устройство
Как следует из всего сказанного выше, WD Black SN750 – это лишь минорное обновление прошлого WD Black NVMe с относительно небольшим списком изменений. Поэтому нет ничего удивительного в том, что старая и новая версии накопителя идентичны с точки зрения конструкции печатной платы. Её дизайн совершенно не изменился, и отличить более новую модель от старой, если от неё отклеить наклейку, будет практически нереально.
SSD имеет односторонний дизайн, позволяющий использовать его в «низкопрофильных» слотах. Фирменный контроллер SanDisk 20-82-007011 располагается по центру платы, а две микросхемы флеш-памяти разведены по краям M.2-модуля. Сделано это специально — инженеры Western Digital посчитали, что при такой компоновке у печатной платы получается более простая топология, а также эффективнее решается вопрос с теплоотводом.
Мы тестировали накопитель объёмом 500 Гбайт, и массив флеш-памяти на нём оказался набран двумя чипами, в каждом из которых было заключено по восемь 64-слойных 256-Гбит 3D TLC NAND-кристаллов (BiCS3) производства SanDisk. Следовательно, восьмиканальный контроллер в составе рассматриваемого накопителя пользуется двукратным чередованием устройств в каждом канале. Обычно этого бывает достаточно для того, чтобы аппаратная платформа SSD смогла раскрыть весь свой потенциал.
Рядом с контроллером установлена микросхема DRAM-буфера, необходимого для быстрой работы с таблицей трансляции адресов. Это единственный компонент в составе WD Black SN750, который производитель закупает на стороне. В данном случае использован чип SK Hynix ёмкостью 512 Мбайт, причём ставка сделана на сравнительно скоростную память – DDR4-2400.
Впрочем, ничего нового во всём этом нет, то же самое мы видели и при знакомстве с WD Black NVMe. Но Western Digital попыталась отсутствие изменений в аппаратной конфигурации компенсировать хоть какими-то переменами в экстерьере. Для WD Black SN750 был выбран геймерский имидж, и он подчёркивается всеми доступными способами: в первую очередь оформлением упаковки и во вторую – тем, как выглядит информационная наклейка на SSD.
Коробка для WD Black SN750 выполнена в чёрной цветовой гамме, пришедшей на смену сине-белому дизайну, в оформлении активно используется моноширинный шрифт, а название накопителя теперь записывается как WD_BLACK.
Наклейка на накопителе тоже выдержана в аналогичном стиле, но не без огрехов. Впрочем, ей это можно простить, ведь на ней производителю пришлось располагать много служебной информации, логотипы и штрих-коды.
Поскольку Black SN750 явно ориентирован на энтузиастов, логично было бы, если наклейка была бы выполнена на фольгированной основе, к чему прибегают некоторые производители для улучшения теплоотвода от чипов на плате SSD. Но разработчики Western Digital решили подойти к вопросу охлаждения более радикально, и для тех, кого серьёзно беспокоит вопрос охлаждения, сделали отдельную модификацию Black SN750 с полноценным радиатором.
Такая версия – это отдельный продукт, который стоит на $20-$35 дороже. Однако Western Digital считает, что заплатить тут определённо есть за что. Ведь применённый радиатор – это не простая малоэффективная теплорассеивающая крышечка, какие, например, любят ставить на свои NVMe SSD компании из третьего эшелона. В Black SN750 он представляет собой достаточно массивный чёрный алюминиевый брусок, над формой которого работали мастера своего дела – приглашённые специалисты из фирмы EKWB.
К накопителям Western Digital всегда прилагается одна и та же фирменная сервисная утилита SSD Dashboard, в которой реализованы все основные функции для их обслуживания. Но к выходу новой версии флагманского NVMe SSD она заметно поменялась: в ней появился новый тёмный вариант интерфейса, который автоматически включается в том случае, если утилита обнаруживает в системе геймерский Black SN750.
При этом возможности утилиты остаются практически полностью теми же, и удивить кого-нибудь она вряд ли сможет. Фактически, к привычному набору функций добавляется лишь переключатель Gaming Mode. Но это вовсе не значит, что мы чем-то недовольны: претензий к программе SSD Dashboard нет, ведь она остаётся одной из самых полнофункциональных сервисных утилит такого рода.
Основные возможности SSD Dashboard: получение информации об установленном в системе SSD, включая данные об оставшемся ресурсе и текущем температурном режиме; мониторинг производительности накопителя в реальном времени; обновление микропрограммы через Интернет или из файла; выполнение операции Secure Erase и удаление каких-либо данных из флеш-памяти путём её принудительного зануления; выполнение SMART-тестов и просмотр SMART-атрибутов.
Стоит отметить, что возможности интерпретации параметров SMART, заложенные в SSD Dashboard, несколько богаче, чем информация, которую можно получить из независимых программ сторонних разработчиков.
А вот фирменного NVMe-драйвера для WD Black SN750 не предусмотрено. Поэтому работать с ним придётся через стандартный драйвер операционной системы, в свойствах которого для увеличения производительности и показателей в распространённых бенчмарках рекомендуется поставить галочку напротив опции «Отключить очистку буфера кеша записей Windows для этого устройства».
Тестирование проводится в операционной системе Microsoft Windows 10 Enterprise x64 Build 16299, корректно распознающей и обслуживающей современные твердотельные накопители. Это значит, что в процессе прохождения тестов, как и при обычном повседневном использовании SSD, команда TRIM поддерживается и активно задействуется. Измерение производительности выполняется с накопителями, находящимися в «использованном» состоянии, которое достигается их предварительным заполнением данными. Перед каждым тестом накопители очищаются и обслуживаются с помощью команды TRIM. Между отдельными тестами выдерживается 15-минутная пауза, отведённая для корректной отработки технологии сборки мусора. Во всех тестах используются рандомизированные несжимаемые данные.
Раздел, в пределах которого тестируется скорость операций, имеет размер 32 Гбайт, а продолжительность каждого теста составляет сорок секунд. Такие параметры, в частности, позволят получать более релевантные результаты для тех SSD, которые используют различные технологии SLC-кеширования.
Используемые приложения и тесты:
С выходом процессоров Coffee Lake Refresh мы решили в очередной раз обновить тестовую систему, которая используется для измерения производительности NVMe-моделей SSD. Всё-таки такие накопители в первую очередь покупают энтузиасты, переходящие на новые платформы, и поэтому логично использовать в тестовых испытаниях новейшую платформу.
В итоге в качестве тестовой платформы используется компьютер с материнской платой ASRock Z390 Taichi, процессором Core i7-9700K со встроенным графическим ядром Intel UHD Graphics 630 и 8 Гбайт DDR4-2666 SDRAM. Накопители с интерфейсом M.2 во время тестирования устанавливаются в соответствующий слот материнской платы, подключенный к чипсету. Накопители в виде карт PCI Express устанавливаются в слот PCI Express 3.0 x4, также работающий через чипсет.
Объём и скорость передачи данных в бенчмарках указываются в бинарных единицах (1 Кбайт = 1024 байт).
Отдельное пояснение следует сделать относительно закрытия процессорных уязвимостей Meltdown и Spectre. Существующие патчи заметно снижают производительность твердотельных накопителей, поэтому измерения проводятся с деактивированными «заплатками» OC, предназначенными для закрытия этих уязвимостей.
⇡#Список участников тестирования
Если судить по тому, что мы знаем о WD Black SN750, никаких особых сюрпризов от него ожидать не приходится. Это должна быть чуть-чуть улучшенная версия WD Black NVMe, однако и этого вполне может оказаться достаточно для того, чтобы новинка Western Digital оказалась привлекательным и производительным твердотельным накопителем. Поэтому для сегодняшнего теста мы отобрали лучшие варианты NVMe SSD, доступные в настоящее время в магазинах. Это как передовые решения компании Samsung, так и накопители Intel и ADATA. Кроме того, в тесты включён и предшественник WD Black SN750, накопитель WD Black NVMe образца 2018 года.
В результате, список протестированных моделей получил следующий вид:
Используемые версии NVMe-драйверов:
При тестировании Western Digital Black SN750 режим Gaming Mode был активирован.
⇡#Производительность последовательного чтения и записи
Новая микропрограмма, ставшая ключевым компонентом WD Black SN750, почти не поменяла линейные скорости этого накопителя. Здесь он очень сильно похож на своего предшественника, Black NVMe. И этому трудно дать однозначную оценку.
С одной стороны, WD Black SN750 смог сохранить высокую скорость линейной записи за пределами SLC-кеша. Поэтому при последовательной записи он оказывается одним из самых быстрых NVMe SSD среди решений, использующих TLC 3D NAND.
С другой стороны, скорость последовательного чтения остаётся заметным слабым местом новинки Western Digital. Для того чтобы WD Black SN750 выдал показатель, хотя бы отдалённо похожий на обещанное в спецификациях, обращения к нему должны выполняться с очень глубокой очередью запросов, которая в реальной жизни не встречается вообще. В обычных же условиях линейное чтение данных будет происходить с примерно вдвое более низкой производительностью, чем могут предложить конкурирующие накопители.
⇡#Производительность произвольного чтения
Графики скорости произвольного чтения показывают некоторое улучшение показателей WD Black SN750 по сравнению с WD Black NVMe образца 2018 года. Однако о принципиальных изменениях речь не идёт. И это значит, что новый флагманский накопитель Western Digital трудно назвать выдающимся предложением: при важном в реальной жизни мелкоблочном чтении он уступает не только решениям Samsung, но и тем SSD, которые используют платформу SMI SM2262/SM2262EN.
⇡#Производительность произвольной записи
А вот со скоростью случайной записи получилось очень неплохо. Благодаря изменениям микропрограммы и специальному режиму Gaming Mode новый WD Black SN750 опережает всех конкурентов в отсутствие конвейеризации запросов и находится в числе лидеров при средних глубинах очереди.
⇡#Производительность при смешанной нагрузке
К сожалению, все те улучшения микропрограммы, которые давали возможность WD Black SN750 опережать предшественника, при смешанной нагрузке никак себя не проявляют. Если накопителю приходится сталкиваться с необходимостью обработки разнонаправленных потоков данных, то новый WD Black SN750 может оказаться даже хуже, чем прошлогодний Black NVMe. А если вспомнить о том, что дуплексная нагрузка – основной сценарий работы SSD в современных многозадачных операционных системах, то возникает вполне резонный вопрос о том, правомерно ли Black SN750 называть «улучшенной» версией прошлого флагманского накопителя Western Digital. Особенно сильно снижение показателей производительности у новинки заметно при работе с последовательными операциями.
⇡#Производительность в CrystalDiskMark
К этому моменту становится хорошо понятно, что с Samsung 970 EVO Plus у обновлённого предложения Western Digital конкурировать не получится. Результаты, полученные в CrystalDiskMark, это только подтверждают. Несмотря на то, что мы недолюбливаем данный бенчмарк за очень поверхностную оценку производительности, преимущество южнокорейского флагмана 2019 года однозначно показывает даже он.
Но также нужно учитывать и то, что CrystalDiskMark оценивает работу накопителей исключительно с SLC-кешем, и игнорирует то, какой размер имеет этот кеш, и какая скорость наблюдается при прямом взаимодействии с основным массивом TLC-памяти. А ведь WD Black SN750 уступает Samsung 970 EVO Plus ещё и в этом. Например, размер SLC-кеша WD Black SN750 500 Гбайт ограничен величиной 6 Гбайт, в то время как накопитель компании Samsung располагает динамическим SLC-кешем, расширяемым при необходимости до 22 Гбайт.
⇡#Производительность в PCMark 8 Storage Benchmark 2.0
Тест PCMark 8, который измеряет комплексную производительность в приложениях, говорит о том, что WD Black SN750 может обеспечить чуть лучшую производительность по сравнению с предшественником. Благодаря этому накопитель WD можно рассматривать как вполне приемлемый вариант среднего уровня, однако другие новинки этого года в лице Samsung 970 EVO Plus или ADATA XPG SX8200 Pro обеспечивают заметно лучшие скоростные показатели.
Интегральный результат PCMark 8 нужно дополнить и показателями производительности, выдаваемыми накопителями при прохождении отдельных тестовых трасс, которые моделируют различные варианты реальной нагрузки. Дело в том, что при разноплановой нагрузке флеш-накопители могут вести себя каким-либо особым образом.
⇡#Производительность при реальной нагрузке
В большинстве синтетических тестов WD Black SN750 продемонстрировал средний уровень производительности, но при файловых операциях внутри накопителя он приближается к лидерам. Объяснение этого феномена очень простое: используемая в основе Black SN750 флеш-память отличается высокой скоростью записи, и это очень помогает в данном случае. Впрочем, массовая NVMe-модель компании Samsung 2019 года, 970 EVO Plus, всё равно остаётся недостижимой для обновлённого флагмана Western Digital даже в таких благоприятных сценариях.
По скорости же запуска приложений и игр WD Black SN750 мало отличается от своего предшественника. Это значит, что в роли системного накопителя он будет заметно уступать свежим конкурирующим предложениям, включая не только Samsung 970 EVO Plus, но и ADATA XPG SX8200 Pro, и даже Intel SSD 760p.
⇡#Деградация и восстановление производительности
Наблюдение за изменением скорости записи в зависимости от объёма записанной на диск информации — важный эксперимент, позволяющий понять работу внутренних алгоритмов накопителя. В данном тесте мы загружаем SSD непрерывным потоком запросов на случайную запись 4-килобайтных блоков с очередью максимальной глубины и попутно следим за той производительностью, которая при этом наблюдается. На приведённом ниже графике в виде точек отмечены результаты измерений моментальной производительности, которые мы снимаем ежесекундно, а чёрная линия показывает среднюю скорость, наблюдаемую в течение 30-секундного интервала.
WD Black SN750 повторяет повадки прошлой версии, Black NVMe, и вообще ведет себя абсолютно типично для накопителя, построенного на памяти с трёхбитовыми ячейками. На графике чётко прослеживаются три варианта производительности. При записи в сравнительно небольшой SLC-кеш, которым располагает этот накопитель, производительность составляет порядка 240 тысяч IOPS. Затем, при переходе к прямой работе с памятью в TLC-режиме, скорость записи падает до 130 тысяч IOPS. И в конце концов, когда в массиве флеш-памяти исчерпываются свободные страницы, быстродействие снижается до менее чем 30 тысяч IOPS. При этом на всём протяжении тестирования обновлённый WD Black SN750 демонстрирует отменную стабильность моментальной производительности, что говорит о хорошей сбалансированности контроллера и микропрограммы.
Посмотрим теперь, как происходит восстановление скоростных характеристик до первоначальных величин за счёт работы технологии сборки мусора. Для исследования этого вопроса после завершения предыдущего теста, приводящего к снижению скорости записи, мы выжидаем 15 минут, в течение которых SSD может попытаться самостоятельно восстановиться за счёт сборки мусора, но без помощи со стороны операционной системы и команды TRIM, и замеряем быстродействие. Затем на накопитель принудительно подаётся команда TRIM — и скорость измеряется ещё раз, что позволяет убедиться в способности SSD с помощью TRIM полностью восстанавливать свою паспортную производительность.
Обработка команды TRIM никаких вопросов не вызывает — после её подачи производительность возвращается к первоначальному уровню. Это значит, что в современных операционных системах новый WD Black SN750 сможет жить без каких-либо признаков «старения» или «деградации».
Что же касается автономной работы технологии сборки мусора, то без конкретных указаний со стороны операционной системы она может высвободить под будущие операции лишь SLC-кеш. Подготовка же чистых страниц в основном массиве TLC-памяти при этом не ведётся. Тем не менее использовать WD Black SN750 в средах без поддержки TRIM вполне допустимо — это ещё одно положительное отличие данного накопителя от большинства конкурирующих решений.
Давайте теперь посмотрим на то, насколько большую нагрузку на контроллер создаёт обработка команда TRIM. Когда операционная система передаёт накопителю информацию о том, что какие-то сектора выводятся файловой системой из обращения, контроллер SSD должен консолидировать эти сектора и очистить освобождающиеся страницы флеш-памяти для выполнения будущих операций. Такая перегруппировка требует перезаписи и очистки областей памяти, и это не только занимает заметное время, но и серьёзно нагружает контроллер работой. В результате после удаления с диска больших объёмов данных владельцы SSD могут столкнуться с эффектом временного замедления или даже с «фризами» накопителя. На практике это может вызвать серьёзный дискомфорт, ведь никто не ожидает, что SSD, основным достоинством которого является моментальная реакция на внешние воздействия, будет замирать на несколько секунд.
Поэтому мы добавили в методику дополнительное исследование, которое позволяет отслеживать, насколько незаметно для пользователя тот или иной SSD обслуживает команды TRIM. Способ проверки очень прост: сразу после удаления крупного файла — объёмом 32 Гбайт — мы проверяем, как накопитель справляется с операциями произвольного чтения данных, контролируя как скорость чтения, так и время ожидания, которое проходит с момента каждого запроса данных до ответа накопителя.
После удаления файла объёмом 32 Гбайт накопителю нужно около двух секунд, чтобы привести себя в порядок. В течение этого срока он отвечает на внешние воздействия с заметной задержкой. Время отклика вырастает в несколько сотен раз, а производительность при простом чтении падает практически до нуля. Поведение не из приятных, но справедливости ради стоит заметить, что у WD Black SN750 обработка TRIM происходит всё-таки быстрее, чем у конкурентов. Например, тот же Samsung 970 EVO Plus 500 Гбайт после удаления аналогичного объёма информации тратит на приведение себя в порядок порядка 20 секунд, правда при этом его производительность снижается лишь в два раза, что не приводит к временному отказу накопителя от выполнения остальных своих функций.
⇡#Проверка температурного режима
WD Black SN750 вряд ли сильно отличается от своего предшественника с точки зрения тепловыделения, и это значит, что новинка, скорее всего, не будет перегреваться во время работы. Тем не менее почему-то Western Digital предусмотрела версию своего SSD с предустановленным радиатором. Поэтому давайте проверим, какой температурный режим окажется у обычного Black SN750, на котором никакой радиатор не предполагается.
Мы последили за температурным режимом при работе накопителя с последовательными операциями с глубиной очереди запросов в 32 команды. Измерения проводились на открытом стенде, какой-либо дополнительный обдув SSD воздушным потоком не производился.
При операциях интенсивного чтения ситуация выглядит достаточно позитивно. В простое температура накопителя составляет менее 50 градусов. Включение нагрузки к существенному росту температуры не приводит. Иными словами, разогреть WD Black NVMe до троттлинга одним только чтением данных заведомо невозможно.
При записи рабочие температуры заметно повышаются, но до троттлинга дело вновь не доходит. Согласно спецификации, критическая температура для применяемого в данном случае контроллера – 85 градусов. Но за пять минут интенсивной записи на SSD нам удалось разогреть тестовый накопитель лишь до 73 градусов, что не смогло привести к вызванному срабатывающей термозащитой снижению производительности.
Таким образом, WD Black SN750 даже в варианте без радиатора EKWB можно смело отнести к числу NVMe-накопителей M.2-формата, практически не подверженных перегреву и троттлингу. В этом отношении его можно поставить на одну ступень с Samsung 970 EVO и Pro, тепловой режим которых тоже позволяет в большинстве случаев обходиться без применения каких-то специальных систем охлаждения.
Если коротко, то ожидания, возложенные на WD Black SN750, не оправдались. По сути, новый накопитель представляет собой примерно то же самое, что и его предшественник 2018 года, WD Black NVMe. Кроме появления в модельном ряду варианта с объёмом 2 Тбайт, новинка не предлагает никаких принципиальных улучшений, а прирост производительности в реальных задачах в лучшем случае составляет единицы процентов.
Впрочем, всё это закономерно. Для появления какие-либо преимуществ нужны изменения в аппаратной начинке, а в WD Black SN750 их попросту нет. Этот накопитель базируется на том же самом контроллере, что и Black NVMe, и использует такую же 64-слойную TLC 3D NAND третьего поколения авторства SanDisk. Прошивкой же, на которую в этот раз всецело положились разработчики Western Digital, многого не добьёшься. И то, как выступил в тестах Black SN750, наглядно это подтверждает.
Ещё недавно мы считали WD Black NVMe очень неплохим массовым NVMe SSD. Год назад этот накопитель полноправно входил в «лигу чемпионов» и на равных конкурировал с лучшими предложениями того времени: Samsung 970 EVO, Intel SSD 760p и ADATA XPG SX8200. Но сейчас на дворе не 2018-й, а второй квартал 2019 года, и для того чтобы оставаться привлекательными, NVMe-накопителям нужно становиться лучше. После того как Samsung подняла планку выпуском 970 EVO Plus, все прошлогодние лидеры одномоментно отошли на второй план. Мы надеялись, что новый WD Black SN750 сможет забраться на ту же ступень пьедестала, где сейчас в гордом одиночестве находится Samsung 970 EVO Plus, но, как видите, ничего не получилось.
Впрочем, WD Black SN750 может оказаться хорошим игроком второго плана, не более того. Но для этого Western Digital ещё должна постараться и грамотно выстроить ценовую политику. Стоимость рассмотренной новинки должна быть такой, чтобы потенциальные покупатели были готовы закрывать глаза на недостатки производительности. В этом американской компании было бы неплохо поучиться у ADATA, которая смогла перепозиционировать свой не самый выдающийся накопитель XPG SX8200 Pro таким образом, что на прилавках он не залёживается. Сейчас же WD Black SN750 выглядит явно переоценённым и потому не слишком привлекательным предложением.
Итак, подытожим: до Samsung 970 EVO Plus новый WD Black SN750 серьёзно не дотягивает по производительности, а стать хорошим NVMe-вариантом в средней ценовой категории он пока не может из-за существования как минимум не худших по скоростным показателям, но гораздо более доступных по цене альтернатив на контроллере SMI SM2262EN. Но это пока не финальный приговор. Обычно Western Digital оперативно корректирует цены в соответствии с конъюнктурой, поэтому мы почти уверены, что по прошествии нескольких недель в лице WD Black SN750 мы получим неплохую альтернативу для ADATA XPG SX8200 Pro, ADATA Gammix S11 Pro, HP EX950, Intel SSD 760p и тому подобных решений. |
985,209 | Generation Zero — почти как новая Fallout. Рецензия | |
Жанр |Шутер
|
Издатель |Avalanche Studios
|
Разработчик |Avalanche Studios
|
Минимальные требования |Процессор Intel Core i5-2300 2,8 ГГц/AMD FX-6300 3,5 ГГц, 8 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 2 Гбайт памяти, например NVIDIA GeForce GTX 660/AMD Radeon HD 7870, 35 Гбайт на жестком диске, интернет-соединение и учетная запись в Steam
|
Рекомендуемые требования |Процессор Intel Core i7-2600 3,4 ГГц/AMD FX-8350 4,0 ГГц, 16 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 4 Гбайт памяти, например NVIDIA GeForce GTX 960/AMD Radeon R9 280
|
Дата выхода |26 марта 2019 года
|
Возрастной ценз |от 18 лет
|
Платформы |PC, PlayStation 4, Xbox One
|
Официальный сайт *Игра протестирована на PlayStation 4*
Во время прохождения Generation Zero не перестаешь с сожалением думать о том, что целая команда разработчиков потратила несколько лет на посредственный продукт, который не представляет никакой ценности и едва ли кому-то нужен. Это настолько же пустая, бессмысленная и попросту плохо сделанная ерунда, как Fallout 76, Extinction и прочий подобный мусор, держащийся на паре интересных идей, вокруг которых нет ничего интересного или увлекательного. От нее устаешь спустя несколько часов, поскольку с каждой минутой натыкаешься на новые недостатки, а старые никуда не исчезают.
**Один в поле**
В лучших традициях бюджетных игр история рассказывается с помощью бегущего по экрану текста. Действие разворачивается в Швеции конца прошлого века. Послевоенный экономический подъем позволили правительству вложить немало средств в защиту границ и безопасность мирных жителей. По мере увеличения оборонного бюджета все больше шведов участвовало в учениях на случай военных действий — вся страна знала, куда бежать в случае ожидаемой атаки с востока.
Мы же берем на себя роль студента, вернувшегося с друзьями в Швецию после нескольких дней отдыха на соседнем архипелаге. Нашу лодку обстреляли с берега реактивными снарядами, но кто это сделал, неизвестно. Зато совершенно ясно, что это место заброшено: дома пустые, машины в беспорядке стоят на дорогах, поселки приходят в упадок. В лучших традициях Fallout 76 вы должны развлекать себя самостоятельно, читать записки, слушать аудиозаписи и пытаться понять, что случилось и куда все делись.
Возможно, кому-то это покажется интересным, но вселенная Generation Zero не захватывает. Выглядит игра очень атмосферно: красивые локации, сделанные на совесть погодные явления и забавные детали вроде старых постеров на стенах и допотопной техники в домах. Но если внешняя оболочка может время от времени впечатлять (не графикой, а работой художников), то внутри недочетов больше, чем микросхем во взбесившихся машинах. История совершенно не цепляет, а нудные и неинформативные записки будто бы написаны роботами с одной целью — усыпить игрока.
Внутреннее убранство во многих домах со временем начинает повторяться. Двери расположены так же, комнаты идентичные, мебель не меняется, даже распечатанные над кроватями поговорки одни и те же. Будто это не альтернативная версия Швеции, а ее бюджетная симуляция. Нет ощущения, что здесь когда-то жили люди, — слишком стерильно, однотипно и бедно окружение.
Generation Zero — это наполовину экшен от первого лица и наполовину симулятор выживания. Следить за голодом, жаждой и сном тут, к счастью, не надо, зато приходится изучать каждый сундук, заходить в каждую комнату и собирать все, что плохо лежит. В качестве врагов выступают роботы, единственные «живые» создания в мире игры. Они патрулируют локации и готовы атаковать при первой возможности. Однако не стоит ожидать от проекта сражений в духе Horizon Zero Dawn — боевая система довольно кривая, машины плохо реагируют на попадания, да и вообще часто не блещут интеллектом. Ну хоть выглядят по-разному.
Иногда роботы стоят на месте и не реагируют на вас. Иногда отбегают к стене и после этого не двигаются. А в некоторых случаях у них вдруг просыпается мощнейшее чутье, позволяющее обнаружить персонажа, даже когда он находится где-то глубоко в бункере. Пока вы изучаете ящики на предмет ценных трофеев, на экране вдруг появляется желтая стрелочка, означающая, что о вашем присутствии знает кто-то снаружи. На это можно было бы закрыть глаза, если бы стрелочка быстро исчезала, однако она может висеть несколько минут кряду и неустанно раздражать. Это как «вы не можете спать, пока рядом враги», только на порядок хуже.
В игре есть несколько интересных идей, связанных с механизированными противниками, вот только реализованы они плохо. Здесь почему-то советуют не тратить попусту патроны и обходить роботов за километр, но при этом боеприпасы валяются повсюду, а задания подталкивают вступать в бой. Взрывать бочки и разбрасывать радиоприемники в качестве приманок нет смысла — проще сначала стрелять, а потом стрелять еще раз. Когда вы погибаете, можно сразу вколоть стимулятор и моментально ожить. Недостатка в них нет, так что «выживалка» из Generation Zero получилась сомнительная — смерти тут совершенно не боишься.
О других составляющих Generation Zero тоже нельзя сказать ничего хорошего. Инвентарь решили поделить на ячейки — обычные предметы помещаются в одну, а оружие требует два свободных квадрата. Чтобы получить быстрый доступ к тем или иным вещам, нужно все расположить соответствующим образом в меню, и тогда нажатием крестовины вы быстро используете аптечку или что-то другое. Однако неудобства появляются даже тут: вы ставите в меню быстрого доступа не все аптечки, а только те, что расположены в соответствующей ячейке. Игра не умеет автоматически подставлять в слот аптечки (или что-либо еще) из другой ячейки.
Задания, выдаваемые время от времени при взаимодействии с объектами, не только не блещут оригинальностью, но и жутко расплывчаты. Вас просят куда-то отправиться и найти информацию о чем-то, но без конкретики — догадывайтесь сами, что имеется в виду и на что необходимо обращать внимание. Не обходится и без багов — в одном из квестов мне нужно было «обезопасить базу от врагов», но задание не считалось выполненным даже после убийства всех роботов. А после изучения одного сюжетного бункера игра вывалила список из еще из шести и предложила искать в них планы, которые в свою очередь активируют новые поручения — это уже не баг, это просто унылый дизайн.
Отсутствие вменяемых маркеров — главный недостаток, связанный с квестами. То они не показываются, пока вы не приблизитесь к нужной локации, то указывают на что угодно, только не на место, где нужно что-то сделать. Это исправимый недочет, который разработчики наверняка не оставят без внимания, и его можно было бы легко простить, если бы исследовать мир было действительно интересно. Но он такой пустой, однообразный и местами попросту халтурно исполненный, что любоваться пейзажами куда увлекательнее, чем заходить в очередной дом и лицезреть все ту же скопированную много раз обстановку.
Еще здесь есть ролевая система — главный герой улучшает характеристики, зарабатывая новые уровни или надевая одежду с различными бонусами. Ботинки, увеличивающие высоту прыжка, «пулестойкие» рубашки и прочие элементы гардероба, которые вы никогда не увидите (играем ведь от первого лица). Да и выглядит это странно — кеды, в которых герой выше прыгает, серьезно? О навыках и говорить не хочется — они, может быть, и полезные (увеличение инвентаря и повышение здоровья, ускоренное воскрешение товарищей, улучшенное владение оружием), но уровни и очки зарабатываются та-а-а-а-к медленно, что об их существовании постоянно забываешь. Даже на первых уровнях опыта дают катастрофически мало.
Во все это безобразие можно играть в кооперативе, но веселее Generation Zero в этом режиме не становится. Просто вы будете бегать по пустому миру не в одиночку, а с товарищем. Сражаться с тупыми роботами не соло, а вместе с кем-то. Выполнять скучнейшие задания, исследовать унылые бункеры, думать об упущенных возможностях, смеяться над вопиющим однообразием и чертыхаться от очередного бага. Коробки с трофеями, которые лежат так, что их никак не открыть, растущие сквозь пол и стены кусты — чего в игре только нет. Ну вот увлекательности, например, нет, ладно.
*******
Зачем разработчики тратят силы на создание таких игр? Зачем предлагают нам проводить в них время? У Generation Zero в прошлом году была «бета», и ни один существенный недостаток с тех пор не исправили. Это не симулятор выживания — здесь можно умирать и сразу возрождаться. Это не игра про исследование окружения — здесь нечего исследовать. Это не увлекательный шутер — стрельба тут кошмарная. Что же это? Местами красивая игра с парой забавных идей, которые реализованы кое-как и вряд ли получат дальнейшее развитие. Но все равно это лучше, чем Fallout 76. Хотя бы работает более-менее приемлемо.
**Достоинства:** **Недостатки:**
|
|
Конечно, игре далеко до высокобюджетных блокбастеров, но все равно художники очень постарались — порой виды открываются роскошные, особенно на рассвете и во время дождя.
|
|
Музыка не запоминается, хотя на фоне периодически что-то звучит. Звуковой дизайн приемлемый.
|
|
При прохождении в одиночку игра сильно утомит однообразием и отсутствием смысла во всем происходящем.
|
|
Если вдруг вы решите поиграть в Generation Zero, лучше делать это с друзьями. Хотя бы будет с кем посмеяться над тем, как плохо тут многое сделано.
|
|
Бессмысленная, пустая, скучная — о Generation Zero получается говорить лишь в негативном ключе, и парочка достоинств ситуацию не меняют.
*Оценка: 3,0/10* **Видео:** |
985,225 | Обзор профессионального 38-дюймового монитора Viewsonic VP3881: гора возможностей | Сложно представить потребителя, которому будет мало монитора с диагональю 34 дюйма и разрешением 3440 × 1440 пикселей, однако такие встречаются. Эти люди продолжают, как и 10 лет назад, говорить про то, что высоты в 1440 пикселей откровенно мало и дополнительные 160 точно не помешают. Два года назад об этом задумались в компании LG Display и выпустили новую линейку IPS-матриц не только с увеличенным в двух плоскостях разрешением, но и с большей диагональю в 37,5 дюйма. Изменились соотношение сторон (вместо 21:9 стало 24:10) и степень изогнутости, все версии панели предстали в виде «рабочих лошадок» с обычной частотой развёртки в 60-75 Гц, а акцент в конечных продуктах был сделан на профессиональном использовании: работе с документами, CAD/CAM, графикой и тому подобным.
Большая часть производителей, решивших воспользоваться новыми матрицами LG, выпустила по одной модели, на разработку которых, судя по всему, особо не тратили ни сил, ни времени, ни денег. Помимо разницы во внешнем виде, можно отметить разный подход к используемым интерфейсам и… собственно говоря, всё. В итоге покупателя можно было переманить в свой лагерь только ценой, но это, увы, удалось не всем – компаниям ASUS и LG пришлось покинуть, вероятно, не очень интересный для себя сегмент, по крайней мере в России. В итоге в продаже осталось всего четыре модели, особого внимания среди которых заслуживает только одна – монитор Viewsonic VP3881. Почему это так? Сейчас всё расскажем.
Герой обзора был представлен на выставке CES 2017 в уже далёком (по меркам ИТ-рынка) январе 2017 года совместно с не менее удачным VP3268-4K. Оба монитора относятся к профессиональной серии VP, которая за последние годы надёжно закрепила компанию в соответствующем сегменте, и, прямо скажем, не без причины.
У VP3881 на данный момент есть три конкурента: по одному от Acer, Dell и HP. Если же смотреть на рынок Европы и США, то можно найти ещё два варианта производства уже названных ASUS и LG. Все доступные модели по уровню оснащения проигрывают решению от Viewsonic, а по цене близки к нему или даже дороже.
|
Viewsonic VP3881
|
Экран
|Диагональ, дюймов
|37,5
|Соотношение сторон
|24:10
|Покрытие матрицы
|Полуматовое
|Стандартное разрешение, пикс.
|3840 × 1600
|PPI
|111
|
Параметры изображения
|Тип матрицы
|3-side borderless AH-IPS 2300R
|Тип подсветки
|W-LED
|Макс. яркость, кд/м
2 |300
|Контрастность статическая
|1000 : 1
|Количество отображаемых цветов
|1,07 млрд (из палитры в 4,3 млрд. — 14-бит 3D LUT)
|Частота вертикальной развёртки, Гц
|24-75
|Время отклика BtW, мс
|НД
|Время отклика GtG, мс
|5
|Максимальные углы обзора
по горизонтали/вертикали, °
|178/178
|
Разъемы
|Видеовходы
|2 × HDMI 2.0;
1 × DisplayPort 1.4;
1 × USB Type-C 3.1;
|Видеовыходы
|Нет
|Дополнительные порты
|3 × USB 3.1;
1 × 3,5-мм jack (аудиовыход);
1 × 3,5-мм jack (аудиовход);
|Встроенные колонки: число × мощность, Вт
|2 × 5
|
Физические параметры
|Регулировка положения экрана
|Угол наклона, поворот, изменение высоты
|VESA-крепление: размеры (мм)
|Есть
|Крепление для замка Kensington
|Да
|Блок питания
|Внешний
|Макс. потребляемая мощность
в работе / в режиме ожидания, Вт
|66/0,5
|Габаритные размеры
(с подставкой), Д × В × Г, мм
|896 × 499-629 × 299
|Габаритные размеры
(без подставки), Д × В × Г, мм
|896 × 398 × 103
|Масса нетто (с подставкой), кг
|12,69
|Масса нетто (без подставки), кг
|7,97
|Ориентировочная цена
|92 000-10 000 рублей
В мониторе используется одна из матриц AH-IPS производства компании LG Display, модель
**LM375QW1-SSA1**. Это относительно новое 10-битное (с применением FRC-метода) решение со стандартной W-LED-подсветкой без использования ШИ-модуляции (Flicker-Free) и близким к стандарту sRGB цветовым охватом. Радиус изгиба составляет 2300R – относительно небольшая величина – жалоб на кривые линии быть не должно, ну или как минимум к такому искривлению можно быстро адаптироваться.
Монитор способен воспроизводить до 1,07 миллиарда цветовых оттенков из палитры в 4,3 миллиарда благодаря встроенному 14-битному 3D-LUT. C помощью программы Colorbration, базирующейся на разработке компании X-Rite, можно провести аппаратную калибровку и улучшить работу технологии компенсации неравномерности подсветки Uniformity Compensation, доступную, правда, не всегда и не везде. Для VP3881 производитель заявляет точную заводскую настройку для четырёх режимов, каждый из которых соответствует какому-либо цветовому стандарту.
Диагональ в 37,5 дюйма и разрешение 3840 × 1600 пикселей позволяют добиться плотности пикселей в 111 ppi, что соответствует уровню 27-дюймовых WQHD-решений и 34-дюймовыx UWQHD. Основные технические характеристики (яркость, контрастность, углы обзора, скорость отклика и так далее) в целом совпадают параметрами конкурентов, а поэтому утруждать себя сравнением точно не стоит. Говорить же про поддержку HDR10 и преимущества этой особенности мы не будем, поскольку используемая в мониторе матрица не может похвастаться многозонной подсветкой и расширенным цветовым охватом – а это два главных требования для более-менее внятного HDR.
Используемая матрица позволила дизайнерам Viewsonic сделать из VP3881 «безрамочное» решение — внутренние и внешние рамки у него минимально возможные, правда, только с трёх сторон – классика наших дней (4-side frameless-дисплеи встречаются пока не так часто). Подставка позволяет менять наклон и высоту дисплея, но не предлагает возможности переворота в портретный режим — типичная ситуация для изогнутых мониторов. Система управления построена на базе блока с физическими клавишами, а сама схема OSD Menu продолжает взрывать мозг практически всем, кто впервые с ней столкнулся.
Монитор не игровой, поэтому частота вертикальной развёртки ограничена стандартными 60 Гц, которые могут быть получены при использовании любого из доступных у монитора интерфейсов. Выбор здесь широкий: два HDMI 2.0, Display Port 1.4 и USB Type-C 3.1 для подключения современных моделей ультрабуков/ноутбуков, у которых ничего, кроме этого разъема, и нет. При подключении монитора через один из стандартных портов и USB Type-C пользователь может воспользоваться функцией KVM-свитча, благодаря которой управление двумя системами возможно с помощью одного комплекта клавиатуры и мышки.
Для работы соответствующей периферии в мониторе предусмотрено три порта USB 3.1 и 3,5-мм аудиовыход и аудиовход для подключения наушников, внешней акустической системы и микрофона. Желающие сэкономить пространство на столе (а возможно, и семейный бюджет) могут воспользоваться достаточно качественной встроенной акустической системой на базе двух динамиков общей мощностью 10 Вт с тремя встроенными предустановками эквалайзера.
Монитор Viewsonic VP3881 поставляется в очень крупной картонной коробке, с минимумом полиграфии и без пластиковой ручки для удобства транспортировки. Внешний вид упаковки, как можно заметить, стал ещё минималистичнее, зато доставать дисплей проще простого, ведь коробка раскрывается, как книжка.
На ней указаны основные технические особенности модели в краткой форме. Монитор представляют как 38-дюймовый IPS-дисплей стандарта Ultra-Wide QHD+.
По одной наклейке и надписям на коробке можно узнать дату (2 декабря 2017 года) и место производства (Китай) нашего экземпляра, его полный комплект поставки и физические габариты.
Комплект поставки дисплея включает в себя всё самое необходимое:
В отчёте о заводской калибровке представлены результаты по отклонениям DeltaE, гамма-кривым и стабильности оттенков серого для режимов sRGB/EBU/SMPTE-C/Rec.709. Результаты для sRGB дополнены таблицей равномерности белого поля при активной системе Uniformity Compensation. После знакомства с другими моделями из линейки VP повода не доверять представленным отчётам у нас нет. Но проверку мы, безусловно, всё равно проведём.
Внешний вид VP3881 характерен для всех современных представителей линейки VP. В дополнение к «безрамочной» матрице c пластиковой накладкой в нижней части дизайнеры использовали знакомую центральную колону и подставку с крупной глянцевой вставкой в области поворотного элемента. Такой симбиоз выглядит узнаваемо и одновременно уникально.
Из-за крупной изогнутой матрицы подставка у VP3881 имеет немного измененную форму и увеличенные габариты. Благодаря этому никаких претензий к устойчивости дисплея нет.
Изогнутая центральная колонна делится как бы на две части. Ближе к верху, за резиновой заглушкой, расположились крепёжные отверстия непонятного предназначения (скорее всего, они служат просто для удержания заглушки, а самое нижнее нужно для фиксации шарнира в одном положении с помощью железной скрепки). Вырез в колонне играет роль некоего подобия системы прокладки кабелей – решение не самое удачное, но лучше, чем совсем ничего.
Центральная стойка обладает быстросъёмным креплением, также на корпусе монитора есть стандартное VESA-совместимое крепление 100 × 100 мм. В самом верху центральной колоны сделан специальный вырез-ручка, чтобы монитор было удобнее таскать с места на место, не боясь повредить матрицу.
Эргономика подставки удовлетворит практически любые запросы. Доступно изменение наклона (от -1 до +21 градуса), высоты (130 мм) и поворот корпуса (на 60 градусов вправо/влево). Возможность переворота в портретный режим не предусмотрена, однако даже без нее люфт корпуса в горизонтальной плоскости всё равно есть – центровка выполнена на 4 балла из 5.
Все крепёжные элементы монитора и основание подставки выполнены из металла. Для надёжного сцепления с рабочей поверхностью используются шесть резиновых ножек, которые прекрасно справляются со своей задачей, в том числе благодаря большому весу дисплея в сборе.
В целом дизайн VP3881 можно назвать удачным, с эргономикой всё хорошо, да и материалы со сборкой не подкачали. К покраске, величине зазоров и обработке пластиковых элементов не придраться — всё выполнено на высшем уровне.
Корпус, несмотря на очень большие размеры, не поддаётся скручиванию и не скрипит при адекватном физическом воздействии. Большинство поверхностей практичны – на них почти не видны следы от пальцев, да и оставить царапину тоже сложно.
Покрытие матрицы, а точнее её защитного пластикового слоя, полуматовое, что прекрасно видно на снимке выше. За счет этого и кристаллический эффект не очень заметен, и антибликовые свойства сохраняются.
По двум наклейкам на корпусе можно узнать серийный номер, номер модели, дату производства и много другой, менее интересной информации.
Все основные разъёмы для подключения расположились на одной колодке в задней части корпуса и ориентированы вниз. Подключать кабели не очень удобно, поэтому надеемся, что вам не придётся делать это очень часто.
Встроенная акустическая система, представленная двумя динамиками мощностью 5 Вт каждый, расположилась на нижней грани корпуса, за металлической сеточкой. Уровень максимальной громкости сравнительно невысок, но качество звука вполне достойное. Несколько улучшить его возможно как в самой ОС, так и выбором иного режима работы в OSD Menu дисплея. О нём мы сейчас и поговорим.
Набор органов управления Viewsonic VP3881 состоит из шести физических клавиш, расположившихся на задней части корпуса, рядом с правой боковой гранью. Это помогло избавить фронтальную часть от лишних элементов и создать полный «эффект безрамочности».
Пять основных управляющих клавиш обходятся без подсветки, а в кнопку питания встроен светодиод, сигнализирующий о работе дисплея. Нажимаются все клавиши чётко, обработка действий мгновенная.
При нажатии любой клавиши в правой части экрана появляется небольшое чёрно-белое подменю с наэкранными подсказками, по которым можно судить в том числе о примерном расположении клавиш. По факту же пальцы часто попадают на соседние клавиши, особенно если вы не совсем правильно подобрали высоту корпуса на подставке.
Среди опций с быстрым доступом: выбор предустановленного режима (представлены все основные, но без дополнительных параметров настройки), регулировка уровня яркости и контрастности, выбор источника сигнала, вход в основное меню. При нажатии второй клавиши снизу можно быстро активировать Blue Light Filter.
Дизайн меню хорошо знаком по другим моделям серии VP последних лет. Изначально установлен английский язык. Сверху представлено шесть основных закладок с крупными иконками. Пройдёмся по каждому разделу.
В первом разделе представлен только выбор источника сигнала с возможностью включения автоматического поиска рабочего источника.
Изменить уровень громкости подключённой акустической системы можно в разделе Audio Adjust. Здесь же доступен выбор источника аудиосигнала, представлены три предустановки эквалайзера и возможность отключить экран для создания из VP3881 «большой чёрной колонки».
Основная часть предустановленных режимов и их дополнительные настройки прячутся в третьем разделе, ViewMode. У некоторых из них есть дополнительные подрежимы. У подрежимов, в свою очередь, могут отсутствовать либо серьёзно различаться доступные параметры настройки. Среди последних мы встретили следующие: дополнительное усиление контурной резкости (Ultra Clear), продвинутое усиление резкости (Advanced Sharpness), изменение гаммы (Advanced Gamma), изменение общей насыщенности (TruTone), изменение оттенка кожи (Skin Tone), усиление различимости крайних тёмных оттенков (Black Stabilizer), точная настройка работы системы динамической контрастности (Advanced DCR) и так далее.
Четвёртый раздел предлагает пройтись по настройкам яркости и контрастности, а также цветовому формату и перейти к более тонким настройкам цвета с большим количеством регулировок в ручном режиме Custom, выставленном по умолчанию (он же соответствует ViewMode – Off и режиму Native. Такая вот путаница). Но самое интересное в другом – в этом разделе находятся дополнительные режимы, и для некоторых из них заявлена заводская калибровка. Их активация блокирует многие настройки, но если вы вдруг измените один из доступных параметров (за исключением яркости и контрастности), то режим также быстро дезактивируется и система автоматически переключит монитор в Custom Mode. Для выбора пресетов с аппаратной калибровкой и активации напоминания о необходимости произвести перекалибровку существует подраздел Color Calibration.
Но и это ещё не всё. В пятой вкладке, Manual Image Adjust (название невольно наводит на мысль: а в других разделах, до этого, мы, что, всё автоматом выставляли?), оказалась третья настройка резкости. Тут же можно включить технологию уменьшения задержки ввода (активна сразу), активировать ещё один режим – Blue Light Filter с плавной регулировкой степени усиления своего эффекта (снижение синей составляющей спектра свечения, то есть уменьшение цветовой температуры точки белого) и HDR10 (для возможности активации HDR WCG в Windows 10). Вкладка Uniformity, как стало известно после экспериментов и по опыту общения с младшим моделями серии VP, доступна лишь при включении четырёх специальных режимов (sRGB/EBU/SMPTE-C/Rec.709). В случае с sRGB при активной системе UC регулировка яркости блокируется – с этим недостатком инженеры Viewsonic не справились и в VP3881. Зато в реже нужном Rec.709 таких ограничений нет. Такие вот странности!
Последний раздел, Setup Menu, наполнен пунктами, имеющими непосредственное отношение к работе монитора, а не к его цветопередаче. Тут можно выбрать язык локализации меню (есть и русский с хорошим переводом – редкий случай), посмотреть основную рабочую информацию по монитору, изменить настройки OSD-экрана, выключить индикатор питания, снизить энергопотребление с помощью функций Sleep, Auto Power Off и Eco Mode (снижает максимальную яркость, а в его подразделе прячется функция Energy Saving, которую обязательно надо выключить, чтобы яркость экрана не зависела от изображения), включить DP версии 1.1 (не совсем понятно, зачем), настроить глубокий сон для интерфейсов DisplayPort и HDMI, сохранить все настройки в один из доступных секторов памяти (всего три штуки) и сбросить все параметры к заводским установкам.
Доступ к сервисному меню у нового VP3881 найден не был. Общее впечатление от меню и работы с ним осталось прежним: неудобно, непонятно, сложно, запутанно. Несмотря на некоторые изменения наполнения разделов, лучше, к сожалению, не стало. Однако, если вы не планируете совершать ежедневные вылазки в OSD Menu, то беспокоить вас это не должно. Один раз отмучались — и расслабились.
Монитор Viewsonic VP3881 был протестирован по обновленной методике при помощи колориметра X-Rite i1 Display Pro в сочетании с референсным спектрофотометром X-Rite i1 Pro, программного комплекса Argyll CMS c графическим интерфейсом dispcalGUI и программой HCFR Colormeter. Все операции осуществлялись в Windows 10, во время тестирования частота обновления экрана составляла 60 Гц.
В соответствии с методикой мы измерим следующие параметры монитора:
Все описанные выше измерения проводились до и после калибровки. Во время тестов мы измеряем основные профили монитора: выставленный по умолчанию, sRGB (если доступен) и Adobe RGB (если доступен). Калибровка проводится в профиле, выставленном по умолчанию, за исключением особых случаев, о которых будет сказано дополнительно. Для мониторов с расширенным цветовым охватом мы выбираем режим аппаратной эмуляции sRGB, если он доступен. Перед началом всех тестов монитор прогревается в течение 3-4 часов, а все его настройки сбрасываются до заводских.
Также мы продолжим нашу старую практику публикации профилей калибровки для протестированных нами мониторов в конце статьи. При этом тестовая лаборатория 3DNews предупреждает, что такой профиль не сможет на 100 % исправить недостатки конкретно вашего монитора. Дело в том, что все мониторы (даже в рамках одной модели) обязательно будут отличаться друг от друга небольшими погрешностями цветопередачи. Изготовить две одинаковые матрицы невозможно физически, поэтому для любой серьезной калибровки монитора необходим колориметр или спектрофотометр. Но и «универсальный» профиль, созданный для конкретного экземпляра, в целом может поправить ситуацию и у других устройств той же модели, особенно в случае дешёвых дисплеев с ярко выраженными дефектами цветопередачи.
В мониторе Viewsonic VP3881 производитель повторил ранее отмеченные нами ошибки, предоставив выбор из 20 пресетов, которые разбросаны по дебрям меню, причем часть из них поддаётся дополнительной настройке с помощью внушительного количества параметров. Также есть три ячейки для записи профилей аппаратной калибровки (CAL1-CAL3). Смысл такого количества, а также взаимосвязь некоторых пунктов меню и режимов картинки до сих пор не совсем ясны. Любому профессионалу было бы достаточно 2-3 режимов, а для простых пользователей разобраться во всём этом бардаке (по-другому и не скажешь) практически невозможно.
Чтобы снизить вероятность возникновения проблем, в первый же день работы с монитором мы обновили версию его микропрограммы до последней из доступных. Для этого необходимо соединить монитор по кабелю USB с компьютером, скачать необходимую утилиту и подождать около 2-3 минут, после чего монитор перезагрузится и попросит произвести сброс настроек к заводским.
В качестве рабочего интерфейса мы выбрали DisplayPort 1.4, к которому подключали дисплей при помощи кабеля из комплекта поставки. Впрочем, вы можете со спокойной душой использовать доступные HDMI-порты и USB Type-C – картинка от этого хуже не станет. Главное — выставить правильный рабочий диапазон в настройках драйвера видеокарты и в меню монитора.
По умолчанию настройки основных параметров выглядят следующим образом.
В ходе аппаратной калибровки мы использовали программу Colorbration v.1.5.0 и последнюю версию колориметра X-Rite Display Pro с дальнейшей проверкой референсным спектрофотометром X-Rite i1 Pro. В настройках программы было выставлено цветовое пространство sRGB, яркость 100 нит, максимально возможный коэффициент контрастности и пользовательская коррекция неравномерности подсветки по матрице 5 × 5.
⇡#Яркость белого
**, **яркость чёрного **, **коэффициент контрастности
Первоначальная проверка осуществлялась в режиме Rec.709 при выключенной системе компенсации неравномерности подсветки.
|
Яркость в меню (%) |
Яркость белого (кд/м 2) |
Яркость чёрного (кд/м 2) |
Статическая контрастность (x:1)
|
100 |
317 |
0,349 |
908
|
90 |
291 |
0,32 |
909
|
80 |
266 |
0,292 |
911
|
70 |
240 |
0,263 |
913
|
60 |
213 |
0,233 |
914
|
50 |
187 |
0,204 |
917
|
40 |
160 |
0,174 |
920
|
30 |
131 |
0,142 |
923
|
20 |
103 |
0,112 |
920
|
10 |
74 |
0,08 |
925
|
0 |
45 |
0,049 |
918
В этом случае максимальная яркость оказалась на уровне 317 кд/м
2, а нижнее значение составило 45 кд/м 2. Коэффициент контрастности – 918:1 в среднем, что несколько ниже, чем заявлено в технических характеристиках, но ничего страшного в этом нет.
Полученный диапазон изменения яркости подсветки устроит подавляющее большинство потребителей. По верхней границе монитор незначительно превосходит указанное производителем значение, а нижняя граница позволит серьёзно снизить нагрузку на глаза в условиях слабого внешнего освещения или его полного отсутствия.
|В режиме Rec.709, при включении функции Uniformity Compensation
|
Яркость в меню (%) |
Яркость белого (кд/м 2) |
Яркость чёрного (кд/м 2) |
Статическая контрастность (x:1)
|
100 |
132 |
0,351 |
376
|
90 |
122 |
0,321 |
380
|
80 |
112 |
0,293 |
382
|
70 |
101 |
0,265 |
381
|
60 |
90 |
0,234 |
385
|
50 |
80 |
0,205 |
390
|
40 |
68 |
0,175 |
389
|
30 |
56 |
0,143 |
392
|
20 |
44 |
0,112 |
393
|
10 |
32 |
0,08 |
400
|
0 |
20 |
0,049 |
408
После принудительной активации системы компенсации неравномерности подсветки в режиме Rec.709 диапазон яркости резко снижается — до уровня 20-132 нит при коэффициенте контрастности в 380:1. Результат не лучший, но многие мониторы с системой UC откликаются на её активацию похожим образом. Так что это нас особо не удивило. К тому же глубина чёрного поля сохраняется на изначальных значениях, а снижение коэффициента контрастности происходит исключительно из-за падения яркости белого поля при прочих равных.
⇡#Результаты при стандартных настройках
В режиме Custom монитор демонстрирует возможный максимум установленной матрицы, доступно много дополнительных настроек, но отсутствует возможность активации системы компенсации неравномерности подсветки.
Возможности монитора практически полностью перекрывают sRGB-стандарт без явного превосходства на основных цветах. Впрочем, без использования CMS-системы, ПО с её поддержкой и ICC/ICM-профилей для получения правильной цветопередачи тут всё равно не обойтись.
При заводских настройках цветовой охват монитора соответствует sRGB на 97,3 % и AdobeRGB на 71 %.
Точка белого смещена в «холодную» область — почти 7000 К в среднем, но без паразитных оттенков. В повседневных рабочих условиях, если вы работаете при естественном освещении или используете лампы накаливания, такой результат, вполне вероятно, будет постоянно о себе напоминать немного «холодной» картинкой. Зато стабильность ЦТ оттенков серого нас приятна удивила – более высокого результата мы просто не можем вспомнить.
Гамма-кривые при стандартных установках настроены практически идеально. Единственная претензия – недостаточная различимость крайних тёмных участков.
Среднее отклонение цветопередачи монитора при использовании системного профиля sRGB составило 1,18 единицы DeltaE94, максимальное – 4,97. Результат для большинства пользователей очень хороший, но изрядный выход за пределы пространства sRGB на красном стимуле и не слишком точно настроенная точка белого (уж для монитора с заявленной заводской калибровкой — так точно) картину несколько портят. С другой стороны, для рассматриваемого режима калибровку никто не обещал. Так что ещё не всё потеряно.
Среди огромного разнообразия предустановленных режимов VP3881 для дополнительной проверки мы выбрали стандартный sRGB — как один из четырёх с заявленной заводской калибровкой. По умолчанию в нём включена система компенсации неравномерности подсветки, что провоцирует не только сниженный коэффициент контрастности — на уровне 391:1, но и заблокированную на отметке ~125 нит яркость (у того же Rec.709, о котором мы поговорим чуть позже, таких ограничений нет) вкупе с невозможностью менять другие параметры, ответственные за точность цветопередачи и картинку на экране.
Цветовое соответствие sRGB оказалось на уровне 91,1 %.
Точка белого настроена точно также, как и в режиме Custom: «холодновато», зато с первоклассным уровнем стабильности ЦТ оттенков серого.
А вот вопросов к гамма-кривым у нас нет. Режим отличается хорошей различимостью крайних тёмных участков и правильной передачей светлых участков.
Наши выводы подтверждает отчёт, полученный в ходе проведения измерений в Argyll CMS. Монитор показал высокие результаты по гамме и ошибся лишь на некоторых цветовых патчах при выбранном референсе sRGB Profile (что не удивительно, если вспомнить результат цветового соответствия). Кроме того, мы получили отклонение точки белого почти в 4 единицы DeltaE — и с этим, к сожалению, ничего не поделать: таковы ограничения, введённые программистами Viewsonic.
Теперь взглянем на точность настройки режима Rec.709, который придётся по вкусу видеографам, монтажёрам и всем тем, кто каким-то образом связан с созданием, обработкой и конечным выводом видеоматериалов.
Цветовой охват в этом режиме чуть шире, чем в sRGB, в частности — на красных и зелёных стимулах.
С точкой белого и стабильность ЦТ оттенков серого ситуация идентична тому, что мы видели в режимах Custom и sRGB. Ничего нового.
Гамма-кривые выстроены точно в соответствии с гаммой 2,4 – одно из основных требований стандарта Rec.709 для работы с видео.
Если указать в качестве референса данный стандарт и использовать соответствующий системный профиль, то результаты в тесте Argyll CMS окажутcя следующими: среднее отклонение чуть больше единицы DeltaE94, а максимальное — всего 4,25, и исключительно из-за ошибки на синем цвете. Очень достойно – отчёт о заводской калибровке соответствует реальности!
⇡#Результаты после аппаратной калибровки
Для аппаратной калибровки мы использовали программу Viewsonic Colorbration последней версии, созданную на базе решения X-Rite и полностью повторяющую как его дизайн, так и возможности. Был установлен продвинутый режим калибровки, измерительным устройством выступал колориметр Display Pro последней версии и с последней прошивкой. Точность его работы вкупе с используемой в ПО матрицей коррекции в дальнейшем была подтверждена референсным спектрофотометром.
Общее время на проведение одной процедуры калибровки со средней таблицей цветовых патчей и компенсацией неравномерности подсветки по матрице 5 х 5 составило чуть менее получаса. Каких-либо ошибок в ходе работы и странных действий со стороны программы нами замечено не было – все ее проблемы программисты Viewsonic окончательно решили (на это потребовалось чуть больше года). Из общего времени около 2 минут потребовалось на замеры яркости в 25 точках экрана и примерно 5 на запись корректирующих данных в LUT-монитора.
Аппаратная калибровка ожидаемо позволила изменить цветовой охват Viewsonic VP3881, максимально сократив количество зон, выходящих за пределы пространства sRGB. При работе за монитором это позволит получить максимально точную цветопередачу даже в ПО без поддержки системы управления цветом.
Точки белого приблизилась к 6500 К без какого-либо паразитного оттенка. Точки чёрно-белого градиента сместились к зоне DeltaE<3 и легли максимально близко друг к другу, хотя получить столь высокую стабильность ЦТ, как в режиме Custom, нам не удалось.
Гамма-кривые выстроились в соответствии с кривой sRGB (несколько отлична от гаммы 2,2), увеличилась различимость глубоких теней. Вопросов к точности работы ПО Viewsonic у нас не возникло.
Внесённые правки во встроенный 14-битный 3D-LUT позволили улучшить точность цветопередачи, а созданный в ходе калибровки ICC-профиль второй версии позволил использовать его для проверки в среде Argyll CMS. Итоговые результаты оказались следующими: среднее отклонение DeltaE94 — 0,34 единицы, максимальное — 1,3. Если учесть, что профиль мы создавали в одной программе, а проверяли его качество в другой, то результат можно смело называть великолепным.
Инженеры компании не изменили своим принципам, сохранив особенности работы встроенной системы Uniformity Compensation и в самой старшей модели линейки VP. Измерения равномерности подсветки дисплея Viewsonic проходили при яркости в центральной точке на стандартном уровне в 100 кд/м
2, однако точка белого в случае с заводскими настройками Uniformity не подвергалась правкам вовсе и, таким образом, была определена изначальными настройками героя обзора. Но, будьте уверены, на нашу оценку и финальные выводы это никак не повлияет.
Дополнительно напомним, что система компенсации неравномерности подсветки у VP3881 работает только в предустановленных режимах sRGB/EBU/SMPTE-C/Rec.709, причём в двух из них — исключительно при зафиксированном уровне яркости подсветки (125-130 нит). Для проверки и сравнения равномерности мы использовали режим Custom после ручной настройки, режим аппаратной калибровки с дополнительной настройкой равномерности по матрице 5 х 5 и режим Rec.709 со стандартной настройкой Uniformity. Именно в таком порядке будут расставлены все последующие фотографии и диаграммы.
По фотографиям отчётливо видна работа технологии Uniformity. После её активации в ходе аппаратной калибровки и тем более в режиме Rec.709 равномерность белого поля значительно возрастает.
Ровно то же происходит на серых заливках, где эффективность работы системы компенсации просто поражает. Причём в данном случае показаны исключительно варианты без Uniformity (слева) и с ней (справа, с заводскими установками).
Влияние на равномерность подсветки можно проследить и по полученным результатам измерений. Среднее значение составило 6,4 % / 4,7 % / 2,0 %, а максимальное снизилось с 19,8 до 15,5 и в дальнейшем до 6 %. Для столь крупной и широкой матрицы – результат фантастический. В случае с ручной коррекцией равномерности в ходе аппаратной калибровки можем предположить следующее – получить примерно такой же результат, как при заводских настройках, возможно, но для этого необходимо прикладывать прибор максимально близко к краям экрана, а не как требует того приложение Colorbration.
Теперь оценим равномерность цветовой температуры. Даже без работы системы компенсации среднее значение не превышает 1,1 %, после калибровки падает до 1 %, а в лучшем варианте снижается до 0,6 % в режиме Rec.709. Максимальное отклонение составляет 2,9 %, 2,1 % и 2 %. Лучший результат по разнице между измеренным минимумом и максимумом показал режим с ручной коррекцией равномерности – всего 173К – лучше для 37,5-дюймового монитора просто сложно представить.
Результаты отклонений ЦТ по уровню DeltaE подтверждают, что активация системы компенсации неравномерности подсветки положительно сказывается на светлом и сером полях. Разница в цифрах несущественна, но она есть. Куда сильнее заметен изменившейся характер отклонений, а точнее диаграммы поверхностей, которые вы можете оценить самостоятельно.
Теперь посмотрим на равномерность подсветки и различные цветовые эффекты в случае с чёрным полем. Сделаем мы это по двум фотографиям, снятым на разном удалении от экрана (~70 и 150 см). Сразу отметим, что никакого влияния на равномерность подсветки на чёрном система Uniformity Compensation не оказывает и оказывать не может.
В плане углового Glow-эффекта изучаемый монитор показал вполне обычный для IPS-матрицы результат – четыре «засвеченных» угла со слабыми паразитными оттенками. Размер «засветок» зависит от расстояния до экрана – чем ближе, тем они больше, а их заметность находится в прямой зависимости от яркости подсветки и силы внешнего освещения (снижайте первую и увеличивайте вторую – тогда точно забудете про Glow). По сравнению с тем, что можно было наблюдать 4-5 лет назад, на первых ультрашироких IPS-моделях, это большой скачок вперёд.
При отдалении от экрана Glow полностью исчезает — и становится ясно, что с реальной равномерностью чёрного у нашего экземпляра VP3881 всё хорошо. Оставшиеся лёгкие «облака» по краям экрана – ерунда на фоне необъятных размеров героя обзора, и к недостаткам их относить не стоит.
⇡#Качество градиентов и скорость отклика
Используемая псевдо-10-битная матрица типа IPS и хорошая заводская настройка позволили монитору продемонстрировать выдающиеся по равномерности градиенты во всех предустановленных режимах. Полноценная аппаратная калибровка с помощью колориметра от X-Rite внесла свои коррективы, но качество градиентов осталось достаточно высоким – появилось несколько более различимых переходов в области 0-10 %, но никакой катастрофы не произошло.
Оценивая равномерность градиентов на VP3881 также хотелось бы отметить, что никакой существенной разницы между работой в 8-битном и 10-битном режимах мы обнаружили. Видимость переходов из-за очень большой диагонали экрана прослеживается в обоих случаях, в любых приложениях и при любых условиях проверки.
Монитор не поддерживает ни одну из систем адаптивной синхронизации, что только подтверждает направленность модели. Скорость отклика у VP3881 типична для современных IPS-type решений с максимальной частотой вертикальной развёртки 60 Гц. Проводить сравнение с любыми игровыми мониторами нет никакого смысла – модель обречена на провал. Впрочем, как и все прямые конкуренты.
Выставленное по умолчанию значение разгона у героя обзора оптимально среди всех доступных: скорость достаточна, артефакты полностью отсутствуют. Режим Advanced можно активировать в том случае, если вы хотите слегка ускорить монитор и не боитесь появления слабых артефактов на движущихся объектах. Смысла в Ultra Fast нет, поскольку шлейфы не становятся меньше, а вот артефакты явно прибавляют в количестве и заметности. В общем, всё точно также, как и у других моделей линейки VP двух последних лет.
Углы обзора у Viewsonic VP3881 идентичны тем, что вы получите на прямых конкурентах (ввиду использования полностью идентичных матриц), и примерно такие же, как и у других подобных мониторов с большой диагональю и форматом 21:9.
При незначительных изменениях угла просмотра в горизонтальной плоскости картинка на экране совсем не меняется. Если увеличить угол до 30-45 градусов, то изображение становится менее контрастным, снижается насыщенность некоторых цветов, слегка высветляются тени. При изменениях в вертикальной плоскости картинка на экране портится быстрее. Если привстать над монитором, то яркость изображения снижается, появляется неприятный металлический отлив с лёгким розоватым оттенком, падает контрастность изображения.
Glow-эффект на изучаемом мониторе выражен слабее, чем на 34-дюймовых моделях. Тем не менее в зависимости от положения пользователя перед экраном с чёрной заливкой (или как минимум с черными полосами по сторонам при просмотре фильма) паразитный оттенок и степень его проявления сильно варьируются. Снизить его заметность, как мы уже говорили не раз, можно только путем уменьшения яркости подсветки и повышением уровня внешней освещённости (по отдельности, а лучше в совокупности).
На цветных изображениях Glow проявляет себя значительно слабее, но все равно заметно.
⇡#Кристаллический эффект
**, **Cross-hatching **, **ШИМ
В мониторе Viewsonic VP3881 используется полуматовая пленка поверх защитной пластиковой поверхности матрицы – так, как предпочитают большинство покупателей.
В первую очередь бросается в глаза не совсем привычная структура пикселей – вспоминаются матрицы H-IPS. Картинке на экране далеко до «глянцевого журнала», зато у дисплея хорошие антибликовые свойства. Кристаллический эффект заметен слабо, а при изменении угла просмотра виднее он не становится. Эффект Cross Hatching изучаемой модели монитора не свойственен.
Проблем с заводской резкостью и проработкой шрифтов любого размера не замечено.
По заявлениям производителя, дисплей обладает Flicker-Free W-LED-подсветкой, что и было подтверждено в ходе наших тестов. При любом уровне яркости ШИ-модуляция не используется либо ее частота составляет несколько или даже десятки килогерц. За свои глаза потенциальные покупатели могут быть спокойны.
Рассмотренный сегодня монитор Viewsonic VP3881 предлагает уникальное сочетание характеристик и возможностей, заложенных в качественную обёртку по достаточно привлекательной для этого класса мониторов цене. За два года существования новых решений в профессиональной линейке VP инженеры и программисты компании наконец-то смогли решить проблемы, связанные с аппаратной калибровкой и работой системы компенсации неравномерности, и, вполне вероятно, провели «полировку» других технических моментов, не столь явно бросающихся в глаза при тестировании.
Тем не менее при всех своих достоинствах герой обзора – это не идеальный дисплей. У него есть свои особенности и недостатки, в частности, касающиеся заводской настройки точки белого. Хаос в меню, не совсем удачное расположение клавиш управления, ограничения в различных режимах – набор, ставший стандартом для мониторов из линейки VP.
Если вы выбираете себе крупный ультраширокоформатный монитор без акцента на игровые возможности (хотя играть с развёрткой в 60 Гц пока никто не запрещал) и готовы потратить около 100 тысяч рублей, то мы рекомендуем рассмотреть именно класс 37,5-дюймовых дисплеев. Качество матриц (по углам обзора, Glow-эффекту, равномерности) в них выше, чем среди 34-дюймовых UWQHD-решений, а дополнительная рабочая площадь будет только в плюс. Выбрав же VP3881, вы получите возможный максимум для этого класса и точно не разочаруетесь.
*С файлового сервера 3* *DNews* *.* *ru* * можно скачать* * Viewsonic * *для этого монитора, который мы получили после процедуры аппаратной калибровки и профилирования средствами Argyll CMS. * **Достоинства** **:** **Недостатки:** **Может не устроить:** |
985,238 | Обзор смартфона Sony Xperia 10: карманный кинотеатр | Xperia 10 – первенец новой волны смартфонов Sony, для которой самой важной отличительной чертой выбран формат экрана, лучше всего подходящий для самого распространенного кинематографического формата CinemaScope. Нет, это не оригинальные 2,35:1 и не 2,39:1, а чуть более привычный формат 21:9 (то есть 2,33:1), который в свое время попыталась внедрить в потребительскую электронику Philips, создав телевизоры с подобным форматом. На рынке они продержались три года. Куда дольше продержался — да и держится до сих пор — этот формат в мире мониторов, но Sony интересует не широкоэкранность как таковая, а именно кинематографический потенциал. И опыт провала Philips (которая так и не дождалась массового распространения контента в оригинальном формате) японцы проигнорировали.
Экран с соотношением сторон 21:9 получили среди прочих смартфон среднего класса Sony Xperia 10, который и попал к нам на тест, и флагман Xperia 1, который доберется до рынка только летом. Такой дисплей позволяет не только декларировать уникальные возможности для просмотра кино в том формате, в котором оно (по большей части) снято, но и сделать узкий корпус, наиболее комфортный для хвата.
Sony Xperia 10 интересен не только форматом экрана, но и возвращением к корням: тут и традиционное оформление лицевой панели без выреза или дырки для фронталки, и «кирпичеобразный» корпус – со сканером отпечатков на боковой панели. Привет золотым временам Xperia Z очевиден. Именно на нестандартность и несовременность делает ставку Sony, поскольку по характеристикам Xperia 10 совсем не выделяется: Qualcomm Snapdragon 630, двойная камера (13+5 Мп) без зума, ЖК-дисплей диагональю шесть дюймов, не очень емкая батарея (2870 мА·ч)… Может быть, у новой надежды Sony на успех в среднем сегменте есть какие-то необычные козыри в рукаве?
|
Sony Xperia 10 |
Xiaomi Mi 8 |
Huawei nova 3 |
ASUS Zenfone 5 |
Nokia 7 Plus
|
Дисплей |6 дюймов, IPS,
2520 × 1080 точек, 457 ppi, емкостный мультитач
|6,21 дюйма, AMOLED, 2246 × 1080 точек, 402 ppi, емкостный мультитач
|6,3 дюйма, IPS,
2340 × 1080 точек, 409 ppi, емкостный мультитач
|6,2 дюйма, IPS, 2246 × 1080 точек, 402 ppi, емкостный мультитач
|6 дюймов, IPS,
2160 × 1080 точек, 401 ppi, емкостный мультитач
|
Защитное стекло |Corning Gorilla Glass 5
|Corning Gorilla Glass 5
|Нет информации
|Corning Gorilla Glass (версия неизвестна)
|Corning Gorilla Glass 3
|
Процессор |Qualcomm Snapdragon 630: восемь ядер ARM Cortex-A53 частотой до 2,2 ГГц
|Qualcomm Snapdragon 845: четыре ядра Kryo 385 Gold, частота 2,8 ГГц + четыре ядра Kryo 385 Silver, частота 1,7 ГГц
|HiSilicon Kirin 970: четыре ядра ARM Cortex A73, частота 2,4 ГГц + четыре ядра ARM Cortex A53, частота 1,8 ГГц; архитектура HiAI
|Qualcomm Snapdragon 636 (восемь ядер Kryo 260, частота 1,8 ГГц)
|Qualcomm Snapdragon 660: восемь ядер Kryo 260, частота 2,2 ГГц
|
Графический контроллер |Adreno 509, 650 МГц
|Adreno 630, 710 МГц
|ARM Mali-G72 MP12, 850 МГц
|Adreno 509, 720 МГц
|Adreno 512, 850 МГц
|
Оперативная память |3 Гбайт
|6 Гбайт
|4 Гбайт
|6 Гбайт
|4 Гбайт
|
Флеш-память |64 Гбайт
|64/128/256 Гбайт
|128 Гбайт
|64 Гбайт
|64 Гбайт
|
Поддержка карт памяти |Есть
|Нет
|Есть
|есть
|Есть
|
Разъемы |USB Type-C, мини-джек 3,5 мм
|USB Type-C
|USB Type-C, миниджек 3,5 мм
|USB Type-C, миниджек 3,5 мм
|USB Type-C, миниджек 3,5 мм
|
SIM-карты |Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|
Сотовая связь 2G |GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
|
Сотовая связь 3G |HSDPA 850/900/1900/2100
|UMTS 850/900/1900/2100
|HSDPA 850/900/2100 МГц
|HSDPA 850/900/1900/2100
|HSDPA 850/900/1900/2100
|
Сотовая связь 4G |LTE Cat. 12 (до 600 Мбит/с): диапазоны 1, 3, 5, 7, 8, 20, 28, 32, 38
|LTE Cat. 16 (до 1024 Мбит/с): диапазоны 1, 3, 4, 5, 7, 8, 20, 34, 38, 39, 40, 41
|LTE Cat. 13 (до 400 Мбит/с), диапазоны 1, 3, 5, 7, 8, 20
|LTE Cat. 12 (до 600 Мбит/с): диапазоны не уточняются
|LTE Cat. 6 (300/50 Мбит/с): диапазоны 1, 3, 5, 7, 8, 20, 28, 38, 40, 41
|
Wi-Fi |802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|
Bluetooth |5.0
|5.0
|4.2 (aptX HD)
|5.0
|5.0
|
NFC |Есть
|Есть
|Есть
|Есть
|Есть
|
Навигация |GPS, A-GPS, ГЛОНАСС
|GPS, A-GPS, ГЛОНАСС, BeiDou
|GPS, A-GPS, ГЛОНАСС
|GPS, A-GPS, ГЛОНАСС, BeiDou
|GPS, A-GPS, ГЛОНАСС, BeiDou
|
Датчики |Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), датчик сильного движения
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|
Сканер отпечатков пальцев |Есть
|Есть
|Есть
|Есть
|Есть
|
Основная камера |Двойной модуль, 13 Мп, ƒ/2,0 + 5 Мп, ƒ/2,4, гибридный автофокус, светодиодная вспышка
|Двойной модуль: 12 Мп, ƒ/1,8 + 12 Мп, ƒ/2,4, фазовый автофокус, оптическая стабилизация (с основной камерой), двойная светодиодная вспышка
|Двойной модуль, 24 + 16 Мп, ƒ/1,8, фазовый автофокус, светодиодная вспышка
|Двойной модуль, 12 Мп, ƒ/1,8 + 8 Мп, ƒ/2,0, фазовый автофокус, светодиодная вспышка
|Двойной модуль, 12 Мп, ƒ/1,75 + 13 Мп, ƒ/2,6, фазовый автофокус, двойная светодиодная вспышка
|
Фронтальная камера |8 Мп, ƒ/2,0, фиксированный фокус
|20 Мп, ƒ/2,0, фиксированный фокус
|24+2 Мп, ƒ/2,0, фиксированный фокус, без вспышки
|8 Мп, ƒ/2,0, фиксированный фокус
|16 Мп, ƒ/2,0, фиксированный фокус
|
Питание |Несъемный аккумулятор на 10,9 Вт·ч (2870 мА·ч, 3,8 В)
|Несъемный аккумулятор: 12,92 Вт·ч (3400 мА·ч, 3,8 В)
|Несъемный аккумулятор: 14,25 Вт·ч (3750 мА·ч, 3,8 В)
|Несъемный аккумулятор на 12,54 Вт·ч (3300 мА·ч, 3,8 В)
|Несъемный аккумулятор на 14,44 Вт·ч (3800 мА·ч, 3,8 В)
|
Размер |156 × 68 × 8,4 мм
|154,9 × 74,8 × 7,6 мм
|157 × 73,7 × 7,3 мм
|153 × 75,65 × 7,7 мм
|158,4 × 75,6 × 9,55 мм
|
Масса |162 грамма
|175 граммов
|166 граммов
|155 граммов
|183 грамма
|
Защита корпуса |Нет
|Нет
|Нет
|нет
|Нет
|
Операционная система |Android 9.0 Pie, собственная оболочка
|Android 8.1.0 Oreo, оболочка MIUI
|Android 8.1 Oreo, оболочка EMUI
|Android 8.0 Oreo, оболочка ZenUI
|Android 8.1 Oreo (Android One)
|
Актуальная цена |24 770 рублей
|25 890 рублей за версию 6/64 Гбайт, 27 490 рублей за версию 6/128 Гбайт, 27 900 рублей за версию 6/256 Гбайт
|25 500 рублей
|18 990 Рублей
|22 182 рубля
⇡#
**Дизайн, эргономичность и программное обеспечение**
Ретро-разворот – так можно охарактеризовать облик Sony Xperia 10. Последние пару лет японцы тщательно стирали привычный образ аккуратных кирпичиков с их пухлыми гранями и плоскими панелями как спереди, так и сзади – и вдруг внезапно все вернулось обратно, в 2016 год. Та самая форма, тот самый сканер отпечатков на боковой панели. Никаких «челок» (надо признать, Sony вообще никаким образом не поддалась на этот вывих моды), минимальные изгибы краев задней панели – она не пытается скрыть реальную толщину устройства, мини-джек на месте. Единственное, что выдает в Xperia 10 современный смартфон, – это двойной модуль камеры. В этом отношении Sony тоже долгое время придерживалась консервативных позиций, но сдалась все-таки в прошлом году.
Смотрится Sony Xperia 10 в итоге как минимум необычно. Слово «свежо» по отношению к возвращенному из прошлого дизайн-коду подходит вроде бы не очень, но на общем фоне так и получается. Смартфоны Sony ни с какими другими не спутаешь, и «десятка» спокойно продолжает эту традицию. Причем никаких отрицательных коннотаций это «не спутаешь» не несет. Да, кому-то подход Sony может не прийтись по вкусу, но в целом в чувстве стиля японцам отказать нельзя.
Тем не менее вызывает определенные эстетические вопросы сочетание почти полного отсутствия «подбородка» и боковых граней вокруг экрана c очень внушительным пространством над ним – производитель утверждает, что такой большой зазор инженеры были вынуждены оставить, потому что больше негде было разместить различные соединения печатных плат, шлейфы и прочее. Логично, но, к примеру, в анонсированном одновременно с «десяткой» Xperia 1 подобных зазоров нет, а шлейфов и печатных плат едва ли меньше, так что вопросы это пояснение не снимает.
Доступны следующие цветовые вариации Sony Xperia 10: темно-синяя (как у нас на тестировании), черная, серебристая и розовая. Материалы оформления – металл для задней панели и боковых граней, закаленное стекло (Gorilla Glass 5) для передней. Покрытие, надо признать, немаркое, постоянно плясать вокруг смартфона с тряпочкой или немедленно заключать его в объятия чехла не нужно. Покрывается отпечатками и пятнами только лицевая панель – олеофобное покрытие на Xperia 10, увы, далеко от идеала. Из однозначных плюсов отмечу то, насколько смартфон удобно держать, – вытянутый и тонкий, он очень здорово ложится в ладонь, и есть все основания предполагать, что в любую.
Sony не была бы собой, если бы не сделала что-то особенное в плане органов управления. Правда, фирменной клавиши спуска затвора камеры мы тут так и не дождались, но вместо нее дополнительное место на правой грани занял сканер отпечатка пальца. Необычность такого решения в том, что это просто сканер, он не совмещен с клавишей включения, как раньше. Клавиши включения и регулировки громкости (нижняя ее часть также отвечает за спуск того самого затвора) находятся выше и ниже него соответственно – и смещены вниз относительно их стандартного положения на большинстве смартфонов других брендов. В итоге выглядит грань более симметрично, но пользоваться регулировкой громкости становится неудобно: приходится смещать палец непривычно низко.
На верхней грани мы видим мини-джек, на нижней – порт USB Type-C и одинокий монофонический динамик, скрытый под правой решеткой. Слот для SIM-карт и карты памяти традиционно открывается без помощи штырькового замка – и опять же традиционно отправляет устройство в перезагрузку, стоит только вынуть слот из корпуса. Причем независимо от того, есть в нем симка или нет.
Сканер отпечатков, надо признать, работает очень прилично. Несмотря на небольшую площадь, за полторы недели тестирования не понадобилось ни разу перезаписывать отпечаток – реагировал на него емкостный сенсор стабильно. Единственный момент – надо внимательно следить за чистотой как сканера, так и пальца: датчик очень чувствителен к любому загрязнению.
Sony Xperia 10 работает под управлением операционной системы Android 9.0 Pie c фирменной оболочкой, хорошо знакомой, например, по Sony Xperia XZ3, только без ряда фишек, связанных с примененным там OLED-дисплеем: в Xperia 10 нет ни Always-On Display, ни возможности активировать дисплей, просто взглянув на него. Зато есть базовый набор приложений Sony, качественное оформление, грамотная взаимоинтеграция фирменных и «андроидных» функций – это одна из самых аккуратных и приятно организованных смартфонных оболочек на сегодня, одновременно и обладающая собственным лицом, и не сильно перекрывающая собой ОС Google.
Из функций, которые все-таки неожиданно переехали с XZ3, отмечу Side Sense – боковую панель, добавленную там в связи с использованием изогнутого дисплея. Здесь дисплей абсолютно плоский, но боковая панель, которая обеспечивает быстрый доступ к приложениям, настройкам и контактам по вашему выбору, имеется. Причем реализована она гораздо лучше, чем во флагмане, – ее сложно вызывать случайно, поскольку чувствительность области, в которой активируется Side Sense, настроена прекрасно. Из функции излишней, которую многие пользователи Xperia XZ3 отключали сразу после знакомства, Side Sense здесь превратился в необязательную, но в принципе полезную виньетку, которая как минимум не мешает.
Есть и уникальная фишка, добавленная именно в новом поколении широкоэкранных Xperia, – экран можно разделить на две части. Сама по себе мультиэкранность давно уже не новость для смартфонов на Android, но реализована она в новом формате действительно удачно: окна удобно регулировать по размеру, за счет соотношения сторон они должны размещаться на экране с максимальным комфортом. Должны – потому что на момент тестирования функция просто не работала.
Проблему с масштабированием внешних приложений Sony решает простым путем – занимая все за пределами привычного формата (19:9) строкой состояния и навигационной полосой. Но не всегда это работает – некоторые приложения на вытянутом экране смотрятся так себе.
В Sony Xperia XZ3 (и в выходящем в начале лета Xperia 1) впервые в истории мобильного подразделения Sony установлен OLED-дисплей. Но это пока не превратилось в повальную тенденцию, которая разрослась бы и до моделей среднего класса. Несмотря на очевидную мультимедийную ориентированность Xperia 10, вытянутый до формата 21:9 дисплей этого смартфона снабжен ЖК-матрицей (IPS). Но откровенно экономить на экране, ограничившись только нестандартным соотношением сторон, японская компания не стала: экран диагональю 6 дюймов получил разрешение Full HD+ (2520 × 1080 точек), что дает плотность в 457 пикселей на дюйм. Картинка очень детализированная, разглядеть пикселизацию попросту невозможно.
Соотношение сторон экрана позволяет смотреть многие фильмы в том формате, в котором они сняты, – это правда. Есть и одно большое но, которое уже перекрыло кислород той же самой идее с телевизорами, хотя они, по идее, куда больше подходят для просмотра оригинального контента, чем мобильные устройства. Найти оригиналы далеко не так просто – в стриминговых сервисах или iTunes (да и в пиратских источниках) почти весь контент уже переформатирован в 16:9, CinemaScope так и не был признан стандартом BluRay Ultra HD. А за проблемами с поиском контента под вытянутый дисплей следует и другая – если при растягивании картинки на весь экран в распространенных сегодня смартфонах с экраном 19:9 или 19,5:9 теряется не очень много информации по краям, то при растягивании до 21:9 это уже режет глаз. Просмотр любого интернет-видео на Xperia 10 сопряжен с обязательным наблюдением двух особо крупных черных полос по бокам. Такой вот «особый опыт».
Олеофобное покрытие Xperia 10, как я уже отмечал выше, не блещет, в остальном это стандартный для современного смартфона нормального уровня сэндвич – есть и поляризационный фильтр, и мультисенсорное покрытие, реагирующее на 10 одновременных прикосновений. Углы обзора свободные.
При инструментальных измерениях дисплей Xperia 10 выдает очень неплохой предельный уровень яркости – 519 кд/м
2. Этого хватает, чтобы информация на экране оставалась читаемой в солнечный день, но рассчитывать на прекрасное качество картинки не приходится – откровенно не хватает контраста, и это нормально для жидкокристаллического дисплея.
Контрастность на среднем уровне – 1374:1. Поддержка HDR, увы, не заявлена, какого-то особенного опыта в области именно качества, а не формата картинки Xperia 10 предложить не может.
В настройках экрана можно менять цветопередачу, яркость и баланс белого, а также отрегулировать автоматическое включение ночного режима. Я измерил цветопередачу дисплея Xperia 10 с двумя из доступных предустановок: стандартной и яркой.
Средняя гамма в стандартном режиме составляет 2,10, что не так уж далеко от нормы. Кривые тоже ведут себя относительно стабильно, но начинают расходиться в светлых тонах. Цветовая температура завышена, но не так сильно, как можно было бы ожидать от смартфона Sony, – она колеблется от 7 500 до 8 500 К. Кажется, времена, когда японцы совершенно осознанно делали оттенки на своих экранах запредельно холодными, все-таки миновали. Вот и славно. Цветовая гамма не расширена – охват примерно соответствует по площади sRGB, но слегка смещен. Среднее отклонение DeltaE по расширенной палитре Color Checker (оттенки серого + широкий набор цветовых оттенков) составляет 5,27 при предельно допустимой норме в 3. Результат не худший, но далекий от идеала.
При активации режима повышенной яркости ситуация с цветопередачей парадоксальным образом практически не меняется. Можно даже сказать, что все показатели колеблются в районе арифметической погрешности. Гамма оказывается равной 2,04 при схожем поведении кривых, цветовая температура остается в тех же границах, среднее отклонение DeltaE по Color Checker составляет 6,10, цветовой охват такой же, как в стандартном режиме.
Стоит признать, что настроен дисплей Sony Xperia 10 средне – ничего страшного, но совсем не то, чего ждешь от нарочито «кинематографического» гаджета.
Зато в плане звучания Sony Xperia 10 очень неплох. Сигнал подается достаточной мощности, чтобы проблем со слышимостью не возникало даже в метро, причем не на максимальной громкости. При беспроводной передаче данных поддерживаются как общеизвестный профиль aptX HD, так и фирменный LDAC – при использовании поддерживающих его наушников смартфон способен обеспечить очень богатое и детализированное звучание, мало в чем уступающее «проводному».
При этом через внешние динамики Xperia 10 не может предложить даже стереозвучания – одно из главных преимуществ флагманских Xperia (они звучат лучше всех конкурентов) не перетекло в младшую модель. Динамик громкий, но одинокий.
⇡#
**«Железо» и производительность**
Sony – компания, приверженная традициям. Это порой хорошо, а порой и не очень. Последнее касается вечного отставания смартфонов компании в аппаратных характеристиках от непосредственных конкурентов. Вот и Xperia 10 туда же: несмотря на цену в 25 тысяч рублей, смартфон оснащен платформой Qualcomm Snapdragon 630 – редкой, не очень удачной. Той самой, за которую мы ругали «Яндекс.Телефон», даже на старте стоивший несколько меньше — 18 тысяч.
В Snapdragon 630 используется восемь ядер ARM Cortex-A53, четыре из которых работают на тактовой частоте 2,2 ГГц, а еще четыре – на 1,8 ГГц. Напомним: чаще всего Cortex-A53 используются как вспомогательные ядра, которые отвечают за работу при низкой нагрузке, тогда как тяжелая достается более мощным ядрам. Здесь же восемь таких ядер отвечают за все — и в платформе для смартфона среднего класса это сейчас смотрится несколько неуместно. Отставание явно проявляется как в синтетических тестах, так и на практике.
Стоит добавить, что платформа выполняется по 14-нм техпроцессу, а за графику отвечает подсистема Adreno 508.
Sony Xperia 10 не блещет игровой производительностью – главные мобильные игры с 3D-графикой придется запускать на минимальных настройках, чтобы удержать кадровую частоту на нормальном уровне, да еще и ждать несколько минут, пока они запустятся. Но и это не все – даже с базовыми приложениями смартфон работает вяло, слегка подтормаживая. За время тестирования «десятка» несколько раз подвисла в обычных приложениях вроде Google Maps или Instagram✴ – потребовалось перезапустить программу, чтобы вернуть гаджету работоспособность. Можно списать это, конечно, на предсерийный статус нашего экземпляра, но осадочек остается.
Неплохо проявляет себя платформа Snapdragon 630 в работе с нейросетевыми вычислениями – 5111 баллов в AI Mark позволяют обойти 55 % всех протестированных на сегодняшний день в бенчмарке устройств. Искусственный интеллект в Xperia 10 используется, как и во многих других смартфонах, для определения сцены при съемке с последующим подбором под нее оптимальных настроек.
С троттлингом у Xperia 10 тоже нет серьезных проблем — система охлаждения весьма эффективна. В CPU Throttling Test смартфон показал понижение частоты до 76 % от максимума. Другое дело, что средняя производительность составила 82,4 GIPS, что очень далеко от лучших показателей, но виновата в этом не система охлаждения, а сама SoC, не слишком-то мощная по нынешним меркам. При этом под конец 15-минутного теста нагрелся смартфон не сильно.
Sony Xperia 10 снабжен 3 Гбайт оперативной памяти – для смартфона с разрешением экрана Full HD+ это, по сути, близкий к нижнему пределу уровень. Запаса здесь совсем нет — и с этим, возможно, и сопряжены зависания в какие-то моменты. Накопитель – на 64 Гбайт, что тоже не впечатляет, но хотя бы исправимо при помощи карточки microSD. Ей можно заменить вторую симку, предельная емкость карточки – 512 Гбайт.
⇡#
**Связь и беспроводные коммуникации**
В платформу Snapdragon 630 входит очень неплохой по предельной скорости передачи данных модем, он обеспечивает смартфону возможность работы с LTE Cat.12 c максимальной скоростью приема данных 600 Мбит/с. Другое дело, что стабильностью соединения этот модем не блещет. Перебои здесь не редкость, причем даже в проверенных местах. С набором доступных диапазонов при этом проблем нет – версия i4113, которая и поставляется на российский рынок, дружит со всеми необходимыми для работы в России частотами.
Зато никаких проблем нет с остальными беспроводными модулями: тут и двухдиапазонный Wi-Fi (802.11 a/b/g/n/ac), и Bluetooth 5.0, и NFC, и качественно работающая навигационная система (GPS, A-GPS, ГЛОНАСС). Нет только редко востребованного ИК-порта.
В Sony Xperia 10 установлена двойная тыльная камера. Основной модуль состоит из сенсора с разрешением 13 мегапикселей и физическими размерами 1/3’’ (размер пикселя – 1,12 мкм), с оптикой светосилой
*f*/2,0. Второй – из сенсора разрешением 5 мегапикселей и физическими размерами 1/4’’ (размер пикселя – 1,4 мкм), с оптикой светосилой *f*/2,4. В принципе, параметры второй камеры не так уж важны – она здесь отвечает исключительно за искусственное размытие заднего плана. Ни оптического зума, ни каких-то бонусов при обычной съемке двойной модуль не дает.
В камере предусмотрена гибридная система фокусировки, совмещающая фазовый и контрастный методы, – работает она не очень быстро, зато довольно стабильно и точно, причем как при хорошем освещении, так и при недостаточном свете. Доступен следящий автофокус, который позволяет снимать на камеру Xperia 10 динамичные сцены. А вот оптический стабилизатор в камере смартфона не предусмотрен.
Интерфейс камеры Sony Xperia 10 необычен. Мы привыкли к тому, что между режимами съемки можно переключаться при помощи карусели экранов, что они все доступны в одно-два смахивания. Здесь так можно переключаться только между фото- и видеосъемкой, а специальные режимы представлены в виде, по сути, отдельных приложений, интегрированных в камеру как бы поверх основного интерфейса. Каждый режим при первом запуске запрашивает разрешения и требует времени на активацию. Причем это касается как съемки с искусственным боке или набора фильтров, так и режима с ручными настройками. Но для Sony и это прогресс — раньше, напомню, тот же режим «Боке» был и вовсе отдельным приложением, которое надо было скачивать из Play Market.
Портреты на Sony Xperia 10 можно получить с очень неплохим размытием, но есть и ограничение, которое задается фокусным расстоянием единственного ответственного за съемку широкоугольного объектива. Снимать портреты крупным планом чревато слишком сильными искажениями лица, тогда как ростовые или, как на примере выше, поясные портреты удаются Xperia 10 лучше.
Другой режим, на котором хотелось бы чуть остановиться, – это фильтры, здесь они довольно интересны и необычны. Что характерно для Sony, они не повторяют то, что вы найдете в фотокамерах этой компании, а полностью самобытны. Подразделения внутри компании до последнего времени работали автономно, и Xperia 10 — один из последних смартфонов, созданных Sony в режиме такой внутренней если не конкуренции, то независимости.
Я уже писал выше, что камера Xperia 10 умеет определять сценарий съемки и подбирать под него оптимальные, на ее собственный взгляд, настройки. Необычно то, что искусственный интеллект здесь неотключаемый, в отличие от тех же Xiaomi или Huawei, – если вы снимаете не в ручном (профессиональном) режиме, то смартфон всегда будет стараться подстроиться под ситуацию. Нельзя даже самостоятельно включить или отключить HDR — устройство само прибегает к его услугам, если считает нужным, не ставя в известность пользователя (управлять HDR можно только в режиме ручных настроек). В большинстве случаев это никак не мешает, скорее наоборот, – у Xperia 10 очень неплохой вкус к фотографии, смартфон умеет правильно выставить настройки и грамотно подобрать цвета.
С программной обработкой у Sony Xperia 10 дело тоже обстоит хорошо, чего ему не хватает, так это просто физических параметров. В результате камера с некрупным сенсором и оптикой невеликой светосилы выдает приятную картинку при дневном или ярком искусственном свете, цветопередача и детали смотрятся здорово. А вот при слабом освещении или ночью камере «десятки» приходится туго – она старательно давит шумы, но убивает вместе с ними все детали, особенно в тенях. Снять кадр без смаза, в принципе, нетрудно даже в автоматическом режиме, поскольку камера выставляет нормальные выдержки, но качество снимков откровенно слабое.
Sony Xperia 10 очень неплох в том, что касается видеозаписи, – мало того, что смартфон умеет писать 4К-видео с частотой до 30 кадров в секунду (а кто сейчас не умеет?), так он способен делать это с форматом 21:9. Разрешение в этом случае составит 3840 × 1644 точки. Картинка очень приличного качества, с хорошими деталями и нормальным динамическим диапазоном. При съемке в Full HD доступен цифровой стабилизатор, есть и функция замедленной съемки (120 кадров в секунду при разрешении 480p).
Фронтальная камера в Sony Xperia 10 вполне обыденная – 8 мегапикселей, физические размеры 1/4’’ (пиксель – 1,12 мкм), светосила
*f*/2,0. Вспышки и автофокуса нет, зато доступно программное размытие фона при активации режима «селфи-портрет», доступного в том же самом списке режимов, что и все остальные. Несколько расстраивают заметные оптические искажения, связанные с широкоугольной оптикой, но в целом качество автопортретов нормальное.
Sony снова поскупилась на емкий аккумулятор для своего смартфона. В Xperia 10 установлена литий-ионная батарея на 10,9 Вт·ч (2870 мА·ч, 3,8 В). В принципе, с шестидюймовым дисплеем – жить можно, только надо озаботиться нормально оптимизацией. Увы, с этим у «десятки» все печально. Смартфон с трудом может протянуть световой день при стандартной нагрузке и сядет за 6-7 часов при нагрузке максимальной (можно еще полчаса-час добавить, если активировать вовремя режим STAMINA). Это один из слабейших по автономности аппаратов в своем классе.
В нашем традиционном тесте с воспроизведением HD-видео, на максимальной яркости, с включенными обновлениями и уведомлениями, смартфон продержался шесть часов. Показатель откровенно низкий.
В настройках есть несколько фирменных вариантов энергосбережения, но это давно уже не та волшебная STAMINA, что раньше, – серьезного выигрыша, как я и писал выше, она не даст. Для зарядки используется порт USB Type-C (USB 2.0), поддерживается быстрая зарядка PowerDelivery мощностью до 18 Вт – с ней батарея заряжается менее чем за два часа. В комплекте при этом идет стандартное зарядное устройство 5 В/1,5 А, с ним на восполнение заряда уйдет еще больше времени.
Sony в новом поколении Xperia попыталась что-то изменить, нащупать верное направление и сделала справедливую ставку на то, что у компании действительно хорошо получается, – на мультимедийную составляющую. Но все опять пошло не так – просто вытянув дисплей смартфона до формата 21:9, сделать из него идеальное устройство для просмотра видео не выйдет: и самого контента, несмотря на принятый в индустрии формат, мало, и остальные области применения смартфона страдают, да и дисплей настроен посредственно. Да, качество звука, выдаваемого на наушники, выше, чем у конкурентов, но почему же внешний динамик монофонический? Зачем здесь экономить на этом?
Ну и самое главное – за важным акцентом нельзя забывать и об остальных функциях смартфона. К тому, что бюджетные Xperia и смартфоны Sony среднего класса всегда отстают от китайских конкурентов по аппаратным характеристикам, мы давно привыкли, но в этот раз отставание кажется уже просто вопиющим. Также не блещет камера – при очень неплохой цветопередаче и разумной программной обработке она откровенно теряется при слабом освещении. Казалось бы, какой спрос с недорогого смартфона, но на это могут ответить значительно более доступные Xiaomi Redmi Note 7 и Honor 8X.
Итоговая ситуация неутешительна: Sony Xperia 10 снова оказывается «смартфоном не для всех» – для приверженцев бренда и ценителей подхода Sony к дизайну, готовых ради этого многое терпеть.
**Достоинства:** **Недостатки:** |
985,239 | Обзор видеокарты MSI GeForce RTX 2080 Ti LIGHTNING Z: молния бьет дважды | Все модификации GeForce RTX 2080 Ti, с которыми мы имели дело до сих пор, хорошо разгоняются и удовлетворяют амбиции подавляющего большинства покупателей. Но для тех энтузиастов, которые стремятся к рекордной производительности, у партнеров NVIDIA существуют предложения, изначально работающие на повышенных частотах. Известно, что старшие чипы семейства Turing делятся на две категории — по достижимым тактовым частотам, и покупка «премиальной» видеокарты в немалой степени страхует оверклокера от проигрыша в кремниевую рулетку.
Когда NVIDIA выпускала чипы архитектуры Kepler, Maxwell и Pascal, компании MSI несколько раз удавалось занять лидирующее место по заводскому разгону той или иной модели. И в этот раз флагманский ускоритель NVIDIA с наиболее высокими значениями тактовых частот тоже появился под крылом красного дракона MSI.
⇡#
**Технические характеристики, комплект поставки, цена**
Из четырех моделей NVIDIA на «полноценных» чипах архитектуры Turing, способных выполнять трассировку лучей при помощи аппаратных модулей (RTX 2060, 2070, 2080 и 2080 Ti), флагманский ускоритель обладает наименьшими тактовыми частотами. При базовой частоте 1350 МГц его показатель Boost Clock (то есть средней частоты при типичной игровой нагрузке) составляет всего лишь 1545 МГц, если судить по референсным данным, или 1635 МГц в модификации Founders Edition. В то же время благодаря широкому вычислительному конвейеру именно чип TU102 больше всего выигрывает от разгона. А коль скоро RTX 2080 Ti был и остается лидирующей игровой видеокартой среди современных предложений AMD и NVIDIA (ведь GeForce TITAN RTX практически бесполезен для геймеров), единственный путь к новым вершинам быстродействия открывает оверклокинг — для начала в виде фабричного разгона, а затем силами пользователя.
Компания MSI предлагает две модификации GeForce RTX 2080 Ti LIGHTNING. «Обычная» версия характеризуется частотой Boost Clock в 1575 МГц и, таким образом, даже не дотягивает до Founders Edition, а GeForce RTX 2080 Ti LIGHTNING Z раскочегаривается до 1770 МГц — и это уже нетривиальное достижение для чипа TU102, если учесть, что NVIDIA не разрешает увеличивать напряжение питания графических процессоров Turing выше отметки 1,068 В. Для сравнения: видеокарты Founders Edition достигают 1,044 В, так что пространство для программного вольтмода у TU102 весьма ограничено.
|Производитель
|NVIDIA
|MSI
|Модель
|GeForce RTX 2080 Ti
|GeForce RTX 2080 Ti LIGHTNING
|GeForce RTX 2080 Ti LIGHTNING Z
|Графический процессор
|Название
|TU102
|TU102
|TU102
|Микроархитектура
|Turing
|Turing
|Turing
|Техпроцесс, нм
|12 нм FFN
|12 нм FFN
|12 нм FFN
|Число транзисторов, млн
|18 600
|18 600
|18 600
|Тактовая частота, МГц: Base Clock / Boost Clock
|1 350 / 1 545 (Founders Edition: 1 350 / 1 635)
|1 350 / 1 575
|1 350 / 1 770
|Число шейдерных ALU
|4352
|4352
|4352
|Число блоков наложения текстур
|272
|272
|272
|Число ROP
|88
|88
|88
|Оперативная память
|Разрядность шины, бит
|352
|352
|352
|Тип микросхем
|GDDR6 SDRAM
|GDDR6 SDRAM
|GDDR6 SDRAM
|Тактовая частота, МГц (пропускная способность на контакт, Мбит/с)
|1 750 (14 000)
|1 750 (14 000)
|1 750 (14 000)
|Объем, Мбайт
|11 264
|11 264
|11 264
|Шина ввода/вывода
|PCI Express 3.0 x16
|PCI Express 3.0 x16
|PCI Express 3.0 x16
|Производительность
|Пиковая производительность FP32, GFLOPS (из расчета максимальной указанной частоты)
|13 448 / 14 231 (Founders Edition)
|13 709
|15 406
|Производительность FP32/FP64
|1/32
|1/32
|1/32
|Пропускная способность оперативной памяти, Гбайт/с
|616
|616
|616
|Вывод изображения
|Интерфейсы вывода изображения
|DisplayPort 1.4a, HDMI 2.0b
|DisplayPort 1.4a, HDMI 2.0b
|DisplayPort 1.4a, HDMI 2.0b
|TDP, Вт
|250/260 (Founders Edition)
|350
|350
|Розничная цена (США, без налога), $
|999 (рекомендованная) / 1 199 (Founders Edition, nvidia.com)
|НД
|От 5 999 (amazon.com)
|Розничная цена (Россия), руб.
|НД (рекомендованная) / 95 990 (Founders Edition, nvidia.ru)
|НД
|От 102 000 (market.yandex.ru)
В остальном частотные параметры обоих устройств не отступают от референсных спецификаций: базовая частота GPU составляет 1350 МГц, а оперативная память GDDR6 работает с пропускной способностью 14 Гбит/с на контакт шины.
Но рекордно высокой тактовой частотой GPU достоинства GeForce RTX 2080 Ti LIGHTNING Z не исчерпываются. Устройству выделен резерв мощности в 360 Вт (для сравнения: у видеокарт EVGA — 373 Вт, но рекордсменом является модель GALAX/KFA2 – 450 Вт), в то время как энергопотребление Founders Edition ограничено 260 Вт. Кроме того, для GeForce RTX 2080 Ti LIGHTNING Z существует альтернативная оверклокерская микропрограмма с еще более широкими возможностями. Вопрос, какая мощность нужна для успешного разгона TU102 без применения экстремальных методов, мы обсудим более подробно в финальных разделах статьи, но сразу стоит отметить, что по умолчанию специальный BIOS на видеокарте не прошит — MSI выдает его по индивидуальному запросу.
В российских интернет-магазинах GeForce RTX 2080 Ti LIGHTNING Z продают за предсказуемо крупную сумму от 102 тыс. руб., в то время как самые доступные модификации GeForce RTX 2080 Ti уже опустились в прайс-листах до 73 тыс. руб. с небольшим. Такова плата за рекордный заводской разгон и могучую конструкцию, которую мы изучим с минуты на минуту. Кстати, обыкновенную версию этой модели без индекса Z в продаже найти не удалось — ни на отечественных, ни на американских торговых площадках. Да и вообще Amazon.com предлагает единственный экземпляр GeForce RTX 2080 Ti LIGHTNING Z по безумной цене $5 999.
Кстати, GeForce RTX 2080 Ti LIGHTNING Z — это редкий по нашим временам пример видеокарты с богатой комплектацией. К устройству прилагается не только диск с ПО и ворох сопроводительных текстовых материалов, но и несколько полезных аксессуаров, включая металлическую распорку для дополнительного крепежа платы в корпусе ПК и кабели, с помощью которых к контрольным точкам на PCB можно подключить щупы мультиметра.
Толщина в 2,5 слота расширения стала нормой для видеокарт на чипе TU102, но MSI смело увеличила габариты до полных 3 слотов. В длину устройство достигает 328 мм и весит почти 2 кг (1825 г, если быть точным). Несмотря на столь внушительную массу, у MSI получилась очень жесткая и надежная конструкция — скоро мы покажем, каким образом это сделано, но сперва отдадим должное эстетке устройства. Эффектный дизайн — дело не первой необходимости, когда речь идет о компьютерных комплектующих, и тем не менее MSI сделала все, чтобы GeForce RTX 2080 Ti LIGHTNING Z создавал впечатление роскоши. К примеру, разноцветной иллюминацией уже никого не удивишь, но здесь каждая светящаяся полоска на борту и задней панели корпуса состоит из ряда отдельных источников света, по которому бежит радужная волна (или другой узор — его можно выбрать в ПО Dragon Control Center). Вентиляторы системы охлаждения тоже освещаются RGB-светодиодами, причем стробоскопический эффект формирует на лопастях различные фигуры.
А главное, в боковую панель кожуха вмонтирован многофункциональный OLED-дисплей, очень яркий даже на солнечном свете. Экран отображает температуру, тактовую частоту GPU или другие рабочие параметры видеокарты. На него можно вывести даже произвольный gif-файл.
За обдув радиатора отвечают три крыльчатки: две диаметром 95 мм и одна — 85 мм, все на двойном шарикоподшипнике. Каждый вентилятор насчитывает 14 лопастей различной формы. Стандартный гладкий лепесток толкает воздух вниз, а лопасти с выступами, как утверждает производитель, дополнительно ускоряют воздушный поток.
Тепло графического процессора рассеивает огромный радиатор, занимающий практически все свободное пространство под кожухом и вентиляторами системы охлаждения. Блок ребер разделен на две секции, связанные между собой и с полированным медным основанием массой тепловых трубок — всего здесь девять трубок различного диаметра.
Площадь печатной платы, за исключением подложки GPU, выступающих конденсаторов и дросселей регулятора напряжения, закрыта толстой алюминиевой рамой с небольшими ребрами. Благодаря тому, что PCB крепко прикручена к этой детали, текстолит совсем не прогибается под весом громадного радиатора. Тонкая пластина, защищающая обратную сторону печатной платы, не просто похожа на «карбон» по внешнему виду — это и есть настоящее углеволокно. MSI зачем-то приклеила термотрубку изнутри, хотя материал не отличается высокой теплопроводностью. Впрочем, элементов с высоким тепловыделением на задней поверхности PCB и нет.
С такой крупной системой охлаждения, как у MSI GeForce RTX 2080 Ti LIGHTNING Z, нет смысла экономить на площади печатной платы. Действительно, на PCB полно свободного места, зато ширины текстолита хватило, чтобы поместить в ряд компоненты 13 фаз регулятора напряжения, а еще шесть фаз распаяны с противоположной стороны GPU. Из этого числа 16 фаз принадлежат VRM графического процессора, а три обслуживают микросхемы GDDR6. Как и на любой другой плате для чипов Turing, MSI использовала полевые транзисторы со встроенным драйвером (Dr.MOS или power stage — «силовой каскад»), которые отличаются повышенной энергоэффективностью и позволяют с высокой точностью контролировать напряжение. Каждый из MOSFET’ов рассчитан на ток вплоть до 70А. По спецификациям, VRM может обеспечить устройство мощностью в 1330 Вт — запас прочности остается даже при разгоне под криогенным охлаждением.
Каждые две фазы системы питания GPU подключены к контроллеру через удвоитель ШИМ-сигнала. Благодаря такой схеме снижается ток, проходящий через отдельную фазу, и еще больше возрастает общий КПД регулятора. Как и положено любой видеокарте на GPU семейства Turing, MSI GeForce RTX 2080 Ti LIGHTNING Z умеет отключать часть фаз при низкой нагрузке на графический процессор. На роль ШИМ-контроллеров для GPU и чипов RAM производитель выбрал достаточно редкие чипы Monolithic Power Systems моделей MP2888A и MP2884A.
Устройство получает дополнительное питание через три восьмиконтактных разъема. Для работы в штатном режиме и умеренного оверклокинга в третьем разъеме нет никакой необходимости, но эта видеокарта изначально приспособлена для экстремального разгона. На плате есть контактные площадки для мониторинга напряжений питания GPU, чипов GDDR6 и PLL, а также миниатюрный выключатель, который активирует резервную микросхему BIOS. У новой видеокарты дубликат прошивки включает функцию пассивного охлаждения при температуре ниже 60 °C и позволяет увеличить резерв мощности до 400 Вт, но по запросу покупателя MSI согласна выдать BIOS с повышенными лимитами, который понадобится для экспериментов с жидким азотом.
Комплект видеовыходов MSI GeForce RTX 2080 Ti LIGHTNING Z является стандартом для ускорителей на старших чипах Turing: три выхода DisplayPort, один HDMI и разъем USB Type-C с поддержкой протокола DisplayLink, который можно использовать и для подключения любой другой периферии.
Чипы оперативной памяти Micron, промаркированные строкой K4Z80325BC-HC14, работают со штатной пропускной способностью 14 Гбит/с.
⇡#
**Тестовый стенд, методика тестирования**
|Тестовый стенд
|CPU
|Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
|Материнская плата
|ASUS MAXIMUS XI APEX
|Оперативная память
|G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 Гбайт (3200 МГц, CL14)
|ПЗУ
|Intel SSD 760p, 1024 Гбайт
|Блок питания
|Corsair AX1200i, 1200 Вт
|Система охлаждения CPU
|Corsair Hydro Series H115i
|Корпус
|CoolerMaster Test Bench V1.0
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|ПО для GPU NVIDIA
|Все видеокарты
|NVIDIA GeForce Game Ready Driver 419.67
|Синтетические тесты 3D-графики
|Тест
|API
|Разрешение
|Полноэкранное сглаживание
|3DMark Fire Strike 1.1
|DirectX 11 (feature level 11_0)
|1920 × 1080
|Выкл.
|3DMark Fire Strike 1.1 Extreme
|2560 × 1440
|3DMark Fire Strike 1.1 Ultra
|3840 × 2160
|3DMark Time Spy 1.1
|DirectX 12 (feature level 11_0)
|2560 × 1440
|3DMark Time Spy Extreme 1.1
|3840 × 2160
|Игровые тесты
|Игра (в порядке даты выхода)
|API
|Настройки, метод тестирования
|Полноэкранное сглаживание
|1920 × 1080 / 2560 × 1440
|3840 × 2160
|Grand Theft Auto V
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|MSAA 4x + FXAA + Reflection MSAA 4x
|Выкл.
|Ashes of the Singularity: Escalation
|Vulkan
|Встроенный бенчмарк. Макс. качество графики
|MSAA 4x + TAA 4x
|Total War: WARHAMMER II, встроенный бенчмарк
|DirectX 12
|Встроенный бенчмарк (Battle Benchmark). Макс. качество графики
|MSAA 4x
|Wolfenstein II: The New Colossus
|Vulkan
|OCAT, миссия Roswell. Макс. качество графики. Deferred Rendering, GPU Culling, Adaptive Shading — выкл.
|TSSAA (8TX)
|Final Fantasy XV Windows Edition
|DirectX 11
|Встроенный бенчмарк + OCAT. Макс. качество графики. GameWorks выкл., DLSS выкл.
|TAA
|Far Cry 5
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|TAA
|Strange Brigade
|Vulkan
|Встроенный бенчмарк. Макс. качество графики
|AA Ultra
|Shadow of the Tomb Raider
|DirectX 12
|Встроенный бенчмарк. Макс. качество графики
|SMAA 4x
|Assassin's Creed Odyssey
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|TAA High
|Battlefield V
|DirectX 12
|OCAT, миссия Liberte. Макс. качество графики. DXR выкл., DLSS выкл.
|TAA High
|TAA High
|Metro Exodus
|DirectX 12
|Встроенный бенчмарк. Макс. качество графики. DXR выкл., DLSS выкл., Shading Rate 100%
|TAA
|TAA
|DiRT Rally 2.0
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|MSAA 4x + TAA
|Выкл.
|Tom Clancy's The Division 2
|DirectX 12
|Встроенный бенчмарк. Макс. качество графики
|TAA
|TAA
В большинстве тестовых игр показатели средней и минимальной кадровых частот выводятся из массива времени рендеринга индивидуальных кадров, который записывает встроенный бенчмарк (или утилита OCAT, если его нет).
Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел выбирается значение, соответствующее 1-му процентилю распределения.
Исключениями из этой методики являются игры DiRT Rally 2.0, Far Cry 5 и Wolfenstein II: The New Colossus. Встроенный бенчмарк DiRT Rally 2.0 не записывает время рендеринга отдельных кадров — файл с результатами содержит среднюю частоту смены кадров и минимальную, рассчитанную по максимальному времени кадра. Встроенный бенчмарк Far Cry 5 записывает количество кадров в отдельную секунду теста, поэтому среднее FPS рассчитывается исходя из этих чисел, а не по среднему времени рендеринга кадра.
Для тестирования в Wolfenstein II мы используем OCAT, но в этой игре утилита не сохраняет журнал рендеринга отдельных кадров. Здесь в качестве минимального FPS используется число, которое OCAT выводит на экран, обратное 99-му процентилю времени кадра.
Мощность видеокарт регистрируется отдельно от CPU и прочих компонентов ПК с помощью амперметра MingHe VAC-1050A. Чтобы одновременно измерить ток, проходящий по разъемам дополнительного питания и слоту материнской платы, видеокарта подключается через жесткий райзер PCI Express x16, в котором линии питания разорваны и выведены на отдельный кабель.
В качестве тестовой нагрузки для тестов мощности и уровня шума используется игра Crysis 3 при разрешении 3840 × 2160 без полноэкранного сглаживания и максимальных параметрах качества графики, а также стресс-тест FurMark с наиболее агрессивными настройками (разрешение 3840 × 2160, MSAA 8x). Замеры всех параметров выполняются после прогрева видеокарты, когда температура GPU и тактовые частоты стабилизируются.
В тестировании производительности приняли участие следующие видеокарты:
⇡#
**Тактовые частоты, энергопотребление, температура, разгон**
Стандартная версия BIOS, под управлением которой работает MSI GeForce RTX 2080 Ti LIGHTNING Z, задает TDP на уровне 250 Вт, что соответствует референсному значению для RTX 2080 Ti. Альтернативная прошивка, которую активирует переключатель на печатной плате, сдвигает лимит мощности до 360 Вт с возможностью дальнейшего увеличения вплоть до 400 Вт. Этой версией микропрограммы мы и воспользовались — как в штатном режиме, так и для разгона.
Несмотря на то, что Boost Clock в спецификациях MSI GeForce RTX 2080 Ti LIGHTNING Z на 135 МГц превышает соответствующий параметр Founders Edition, на практике частоты различаются не так сильно — всего лишь на 87 МГц в тесте Crysis 3 (1810 у MSI против 1723 МГц у референсной карты NVIDIA). Впрочем, менее ресурсоемкие игры позволяют GPU автоматически разогнаться до частот в районе 1970–1980 МГц.
Массивный трехслотовый кулер удерживает температуру GPU в пределах 71 °C при сравнительно низкой скорости вращения вентиляторов. Если сравнить GeForce RTX 2080 Ti LIGHTNING Z с видеокартой Founders Edition по этим показателям, то опять-таки небольшое преимущество MSI едва ли оправдывает высокую цену этой модели, а по уровню шума эти устройства практически не отличаются друг от друга. Но стоит учесть, что ради скромного заводского разгона производитель был вынужден увеличить напряжение питания графического процессора, в результате чего энергопотребление при типичной нагрузке возросло на 77 Вт (328 против 250 Вт).
Кроме того, система охлаждения GeForce RTX 2080 Ti LIGHTNING Z сохраняет приемлемую температуру и уровень шума даже в FurMark, хотя в условиях стресс-теста эта плата освоила на 131 Вт больше, чем Founders Edition. При таком резерве мощности у видеокарты уже есть все задатки для рекордного разгона (по крайней мере со штатной воздушной системой охлаждения) — посмотрим, что покажет практика.
|Рабочие параметры под нагрузкой (Crysis 3)
|Видеокарта
|Настройки
|Тактовая частота GPU, МГц
|Напряжение питания GPU, В
|Частота вращения вентиляторов, об/мин (% от макс.)
|Частота вращения вентиляторов 2, об/мин (% от макс.)
|Средн.
|Макс.
|Предел
|Средн.
|Макс.
|Предел
|Средн.
|Средн.
|NVIDIA GeForce RTX 2080 Ti FE (1350/14000 МГц, 11 Гбайт)
|1723
|1860
|1950
|0,912
|1,031
|1,044
|2082 (56%)
|2082 (56%)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1350/14000 МГц, 11 Гбайт)
|1810
|1830
|1875
|1,050
|1,050
|1,056
|1825 (49%)
|1808 (61%)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1520/16000 МГц, 11 Гбайт)
|+11% TDP
|1970
|1980
|2040
|1,050
|1,050
|1,056
|2033 (54%)
|1987 (67%)
|NVIDIA GeForce RTX 2080 FE (1615/16000 МГц, 8 Гбайт)
|+20% TDP
|1970
|1995
|2070
|1,046
|1,050
|1,044
|2019 (55%)
|2019 (55%)
|NVIDIA GeForce GTX 1080 Ti (1480/11000 МГц, 11 Гбайт)
|1735
|1810
|1911
|0,963
|1,012
|1,093
|2377 (50%)
|НД
*Прим.:* * измерение всех параметров выполняется после прогрева GPU и стабилизации тактовых частот.*
При разгоне под штатным кулером GPU стабильно работает на базовой частоте вплоть до 1520 МГц, а в игровом тесте удерживает частоты около 1970 МГц. Таким образом, разгон позволил выиграть 160 МГц по сравнению со штатными настройками GeForce RTX 2080 Ti LIGHTNING Z и 247 МГц по сравнению с GeForce RTX 2080 Ti Founders Edition. И пусть мощность разогнанной видеокарты в Crysis 3 увеличилась на 30 Вт, она все еще лежит в пределах TDP даже без учета прибавки в 11 %.
Но если честно, все модели на основе TU102, которые прошли через наши руки (даже Founders Edition), без особых проблем разгонялись до частоты 1970 МГц под нагрузкой. Главным фактором, который не позволяет старшим чипам Turing выйти за пределы 2 ГГц, является не мощность, а напряжение питания. Давно замечено, что новый алгоритм GPU Boost игнорирует любые попытки увеличить вольтаж программным методом. Вся надежда на специальную версию BIOS, которую MSI согласна выдать избранным покупателям, — другим способом потенциал GeForce RTX 2080 Ti LIGHTNING Z не раскроешь (за исключением физической модификации PCB). А вот разгон чипов памяти на 2 Гбит/с относительно штатной пропускной способности 14 Гбит/с не встретил никаких препятствий.
Единственный аргумент против оверклокинга флагманской видеокарты MSI — это уровень шума. При автоматическом контроле скорости вращения вентиляторов разгон практически не повлиял на температуру GPU, но по громкости GeForce RTX 2080 Ti LIGHTNING Z можно сравнить уже не с GeForce RTX 2080 Ti Founders Edition, а с референсной версией GeForce GTX 1080 Ti.
**Прим.:** температура MSI GeForce RTX 2080 Ti LIGHTNING Z в простое зарегистрирована при стандартном BIOS (не в режиме пассивного охлаждения).
Тесты в синтетических бенчмарках в очередной раз подтверждают правило: «премиальные» модификации графических карт обладают сомнительной ценностью, если их не разгонять. Вот и GeForce RTX 2080 Ti LIGHTNING Z при штатных настройках лишь на 4 % отличается от GeForce RTX 2080 Ti Founders Edition по среднему баллу 3DMark. Но благодаря разгону GPU и RAM разница возрастает уже до 14 %. В таком виде лучший игровой ускоритель NVIDIA на 43 % превосходит следующую модель семейства (GeForce RTX 2080) и на 48 % — флагманскую модель предыдущего поколения (GeForce GTX 1080 Ti).
Результаты игровых бенчмарков совпадают с тем, что уже показала «синтетика». Громадный лимит мощности и чрезвычайно эффективная система охлаждения GeForce RTX 2080 Ti LIGHTNING Z ничего не стоят без разгона, ведь средняя разница по частоте смены кадров между платой MSI и Founders Edition равна 2 %. Но при сравнительно низком разрешении экрана даже оверклокинг в ручном режиме не увеличит быстродействие больше чем на 10 % по сравнению с Founders Edition (лишь в редких требовательных проектах речь идет о росте кадровых частот на 16 %).
В сравнении с другими ускорителями GeForce RTX 2080 Ti скрывает свою истинную мощь при разрешении 1080p — с максимальным разгоном быстродействие GeForce RTX 2080 Ti LIGHTNING Z лишь на 26 и 36 % превосходит результаты GeForce RTX 2080 и GTX 1080 Ti соответственно.
Широкий конвейер графического процессора TU102 эффективно работает только при разрешении 1440p и выше. В этих условиях разница между платами GeForce RTX 2080 Ti, работающими на разных тактовых частотах (Founders Edition и GeForce RTX 2080 Ti LIGHTNING Z — при настройках по умолчанию и с разгоном), выходит на уровень, предсказанный «синтетикой». Так, ускоритель MSI в штатном режиме на 4 % превосходит Founders Edition по средней частоте смены кадров, а благодаря разгону преимущество GeForce RTX 2080 Ti LIGHTNING Z возрастает до 15 %. В отдельных играх (таких как Ashes of the Singularity), которые используют ресурсоемкое полноэкранное сглаживание, можно добиться и большего — вплоть до 21 %.
Наконец, при разрешении 1440p уже можно заметить, как GPU с различной конфигурацией вычислительных блоков реагируют на повышенную нагрузку: GeForce RTX 2080 и GTX 1080 Ti не могут распараллеливать вычисления так же хорошо, как RTX 2080 Ti, — разогнанный GeForce RTX 2080 Ti LIGHTNING Z опередил их на 38 и 47 % соответственно.
Потенциал GeForce RTX 2080 Ti полностью раскрывается в играх при разрешении 4К. В большинстве тестовых проектов даже модель Founders Edition обеспечивает среднюю кадровую частоту 60 FPS и выше, а фабричный разгон GeForce RTX 2080 Ti LIGHTNING Z закрепил достижения NVIDIA. Быстродействие ускорителя MSI в среднем на 6 % выше по сравнению с показателями GeForce RTX 2080 Ti FE, но сразу в нескольких играх разница подступает к 10 %.
Ручной оверклокинг в 4К также наиболее эффективен: GeForce RTX 2080 Ti LIGHTNING Z при увеличенных частотах GPU и оперативной памяти на 17 % оторвался от Founders Edition, а в отдельных тестах достиг преимущества в 20–22%. Лишь в трех играх — Assassin’s Creed Odyssey, Metro Exodus и Total War: WARHAMMER II — разогнанной плате MSI не покорился критически важный результат в 60 FPS.
Более слабые видеокарты на чипах Turing и Pascal при разрешении 2160p уже не могут рассчитывать на стабильные 60 кадров в секунду. Дистанция между разогнанным GeForce RTX 2080 Ti LIGHTNING Z, с одной стороны, и RTX 2080 вместе с GTX 1080 Ti, с другой, увеличилась до 41 и 54 % соответственно.
⇡#
**Результаты всех игровых тестов и 3DMark**
|3DMark (Graphics Score)
|Разрешение
|NVIDIA GeForce RTX 2080 Ti FE (1350/14000 МГц, 11 Гбайт)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1350/14000 МГц, 11 Гбайт)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1520/16000 МГц, 11 Гбайт)
|NVIDIA GeForce RTX 2080 FE (1515/14000 МГц, 8 Гбайт)
|NVIDIA GeForce GTX 1080 Ti (1480/11010 МГц, 11 Гбайт)
|Fire Strike
|1920 × 1080
|33866
|34614
|37870
|27 049
|27 577
|Fire Strike Extreme
|2560 × 1440
|15930
|16695
|18335
|12 926
|13 419
|Fire Strike Ultra
|3840 × 2160
|7655
|8096
|8932
|6 264
|6 662
|Time Spy
|2560 × 1440
|14 030
|14370
|15924
|11 038
|9 308
|Time Spy Extreme
|3840 × 2160
|6542
|6743
|7485
|5 058
|4 355
|Макс.
|+6%
|+17%
|−18%
|−13%
|Средн.
|+4%
|+14%
|−20%
|−23%
|Мин.
|+2%
|+12%
|−23%
|−34%
|1920 × 1080
|Полноэкранное сглаживание
|NVIDIA GeForce RTX 2080 Ti FE (1350/14000 МГц, 11 Гбайт)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1350/14000 МГц, 11 Гбайт)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1520/16000 МГц, 11 Гбайт)
|NVIDIA GeForce RTX 2080 FE (1515/14000 МГц, 8 Гбайт)
|NVIDIA GeForce GTX 1080 Ti (1480/11000 МГц, 11 Гбайт)
|Ashes of the Singularity: Escalation
|MSAA 4x + TAA 4x
|47 / 71
|46 / 75
|52 / 82
|39 / 59
|38 / 60
|Assassin's Creed Odyssey
|TAA High
|66 / 85
|65 / 86
|68 / 91
|53 / 73
|59 / 74
|Battlefield V
|TAA High
|138 / 158
|140 / 163
|141 / 165
|129 / 151
|126 / 140
|DiRT Rally 2.0
|MSAA 4x + TAA
|104 / 137
|106 / 141
|118 / 155
|82 / 112
|78 / 105
|Far Cry 5
|TAA
|120 / 149
|116 / 150
|119 / 153
|117 / 144
|114 / 137
|Final Fantasy XV Windows Edition
|TAA
|97 / 134
|98 / 137
|110 / 152
|86 / 114
|78 / 104
|Grand Theft Auto V
|MSAA 4x + FXAA + Reflection MSAA 4x
|69 / 110
|69 / 110
|63 / 112
|62 / 102
|69 / 104
|Metro Exodus
|TAA
|43 / 72
|42 / 74
|47 / 83
|36 / 61
|30 / 55
|Shadow of the Tomb Raider
|SMAA 4x
|86 / 111
|88 / 113
|93 / 125
|73 / 92
|64 / 84
|Strange Brigade
|AA Ultra
|180 / 227
|186 / 237
|208 / 263
|148 / 187
|138 / 174
|Tom Clancy's The Division 2
|TAA
|103 / 133
|107 / 137
|117 / 150
|91 / 112
|81 / 103
|Total War: WARHAMMER II
|MSAA 4x
|47 / 59
|43 / 59
|49 / 67
|38 / 49
|37 / 49
|Wolfenstein II: The New Colossus
|TSSAA (8TX)
|196 / 246
|196 / 249
|200 / 254
|175 / 217
|135 / 164
|Макс.
|+6%
|+16%
|−3%
|−5%
|Средн.
|+2%
|+10%
|−13%
|−19%
|Мин.
|+0%
|+2%
|−18%
|−33%
|2560 × 1440
|Полноэкранное сглаживание
|NVIDIA GeForce RTX 2080 Ti FE (1350/14000 МГц, 11 Гбайт)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1350/14000 МГц, 11 Гбайт)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1520/16000 МГц, 11 Гбайт)
|NVIDIA GeForce RTX 2080 FE (1515/14000 МГц, 8 Гбайт)
|NVIDIA GeForce GTX 1080 Ti (1480/11000 МГц, 11 Гбайт)
|Ashes of the Singularity: Escalation
|MSAA 4x + TAA 4x
|35 / 57
|39 / 60
|43 / 69
|29 / 47
|31 / 47
|Assassin's Creed Odyssey
|TAA High
|60 / 72
|61 / 72
|63 / 80
|49 / 64
|48 / 60
|Battlefield V
|TAA High
|120 / 140
|112 / 144
|130 / 152
|103 / 126
|96 / 116
|DiRT Rally 2.0
|MSAA 4x + TAA
|83 / 103
|87 / 108
|96 / 119
|67 / 85
|62 / 78
|Far Cry 5
|TAA
|104 / 127
|105 / 130
|115 / 139
|99 / 110
|93 / 102
|Final Fantasy XV Windows Edition
|TAA
|73 / 99
|76 / 105
|92 / 117
|62 / 82
|59 / 77
|Grand Theft Auto V
|MSAA 4x + FXAA + Reflection MSAA 4x
|54 / 93
|55 / 94
|60 / 100
|51 / 80
|56 / 82
|Metro Exodus
|TAA
|36 / 59
|37 / 61
|41 / 69
|30 / 49
|26 / 45
|Shadow of the Tomb Raider
|SMAA 4x
|61 / 75
|63 / 77
|70 / 87
|50 / 61
|46 / 56
|Strange Brigade
|AA Ultra
|136 / 164
|141 / 171
|157 / 191
|110 / 132
|100 / 121
|Tom Clancy's The Division 2
|TAA
|79 / 97
|83 / 103
|94 / 114
|66 / 80
|62 / 72
|Total War: WARHAMMER II
|MSAA 4x
|34 / 43
|31 / 44
|38 / 49
|28 / 35
|27 / 34
|Wolfenstein II: The New Colossus
|TSSAA (8TX)
|147 / 179
|154 / 191
|169 / 210
|128 / 151
|104 / 120
|Макс.
|+7%
|+21%
|−10%
|−12%
|Средн.
|+4%
|+15%
|−16%
|−22%
|Мин.
|+0%
|+8%
|−20%
|−33%
|3840 × 2160
|Полноэкранное сглаживание
|NVIDIA GeForce RTX 2080 Ti FE (1350/14000 МГц, 11 Гбайт)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1350/14000 МГц, 11 Гбайт)
|MSI GeForce RTX 2080 Ti LIGHTNING Z (1520/16000 МГц, 11 Гбайт)
|NVIDIA GeForce RTX 2080 FE (1515/14000 МГц, 8 Гбайт)
|NVIDIA GeForce GTX 1080 Ti (1480/11000 МГц, 11 Гбайт)
|Ashes of the Singularity: Escalation
|Выкл.
|56 / 75
|58 / 79
|62 / 87
|46 / 62
|44 / 60
|Assassin's Creed Odyssey
|43 / 51
|45 / 52
|49 / 58
|37 / 45
|31 / 39
|Battlefield V
|TAA High
|72 / 89
|78 / 93
|85 / 102
|60 / 73
|47 / 68
|DiRT Rally 2.0
|Выкл.
|67 / 80
|71 / 86
|78 / 94
|54 / 65
|49 / 58
|Far Cry 5
|66 / 75
|72 / 80
|80 / 88
|56 / 63
|51 / 58
|Final Fantasy XV Windows Edition
|49 / 63
|49 / 66
|57 / 73
|40 / 51
|38 / 48
|Grand Theft Auto V
|49 / 80
|50 / 83
|54 / 90
|43 / 68
|46 / 69
|Metro Exodus
|TAA
|26 / 40
|27 / 43
|31 / 48
|21 / 33
|19 / 30
|Shadow of the Tomb Raider
|Выкл.
|49 / 60
|52 / 63
|59 / 71
|41 / 49
|35 / 44
|Strange Brigade
|84 / 98
|86 / 102
|98 / 115
|67 / 79
|61 / 71
|Tom Clancy's The Division 2
|TAA
|49 / 55
|53 / 60
|59 / 67
|39 / 45
|34 / 39
|Total War: WARHAMMER II
|Выкл.
|31 / 36
|31 / 38
|31 / 42
|25 / 30
|25 / 29
|Wolfenstein II: The New Colossus
|90 / 113
|98 / 125
|111 / 136
|65 / 96
|67 / 77
|Макс.
|+11%
|+22%
|−12%
|−14%
|Средн.
|+6%
|+17%
|−17%
|−24%
|Мин.
|+2%
|+13%
|−19%
|−32%
В ситуации, когда у старшей игровой видеокарты NVIDIA до сих пор не появился прямой соперник под красной маркой, выбор требовательных геймеров, которые хотят собрать бескомпромиссный игровой компьютер, сводится к GeForce RTX 2080 Ti — единственному и пока что неповторимому. В серии референсных ускорителей на чипах Turing NVIDIA установила высокий стандарт быстродействия, уровня шума и эффективности охлаждения, который трудно превзойти партнерским устройствам. Неудивительно, что видеокарты оригинального дизайна главных фирм-производителей тоже вынуждены сделать крупный шаг вперед по сравнению с теми решениями, которые были приемлемы для семейства GeForce 10.
Из всех модификаций GeForce RTX 2080 Ti, которые прошли через лабораторию 3DNews, MSI RTX 2080 Ti LIGHTNING Z без колебаний можно объявить самой мощной (и в переносном смысле, и в плане электрической мощности). Крупная и эффективная система охлаждения, изысканная светодиодная подсветка — все это есть у конкурентов MSI, но по возможностям и качеству обоих компонентов RTX 2080 Ti LIGHTNING Z безоговорочно лидирует.
Единственная претензия к этой плате (а скорее к самой NVIDIA) связана с возможностью разгона. Все модели высшей категории на основе RTX 2080 Ti можно довести до частоты около 2 ГГц в самых требовательных играх, но в этом и состоит проблема: регулятор напряжения с 19 фазами и тремя разъемами питания, не говоря уже о громадной системе охлаждения RTX 2080 Ti LIGHTNING Z, способен на большее. Вот только обновленный алгоритм автоматического контроля частоты и напряжения, который NVIDIA ввела для процессоров Turing, пресекает любые попытки программного вольтмода. В результате именно напряжение питания, а не резерв мощности становится главным препятствием на пути разгона GeForce RTX 2080 Ti в диапазоне от 2000 МГц и выше. |
985,305 | Утечки первого квартала 2019 года: Collection #1-5, Facebook, Toyota и Липецкая область | Далеко не всегда причина утечки данных заключается в действиях пользователя — например в том, что он использует пароль “123456”. Пользователь может придумать очень надежный пароль, но сервис будет хранить его неподобающим образом или подвергнется взлому — и в результате данные пользователя попадут злоумышленнику. Полностью исключить такую ситуацию, к сожалению, невозможно, поэтому к ней нужно быть готовым. То есть, во-первых, использовать разные пароли для всех учетных записей, во-вторых, включить двухфакторную аутентификацию, ну и в-третьих — просто следить за новостями и знать, что последнее время утекало.
Правда, нередко о взломах сервисов, которые повлекли за собой утечку данных, обычно становится известно через несколько месяцев или даже лет. Причин этому несколько. Во-первых, большие массивы информации злоумышленники физически не могут использовать сразу — и тем самым сделать явным взлом сервиса. Во-вторых, сами компании не всегда могут обнаружить утечку по горячим следам. И в-третьих, если утечка и обнаружена, многие компании предпочитают о ней не говорить, потому что это может привести к оттоку пользователей, а иногда и к штрафам со стороны регулирующих органов. Впрочем, с введением закона GDPR штрафы при замалчивании стали намного страшнее, так что и информации об утечках теперь раскрывается намного больше. Однако все вышеозначенные причины все еще актуальны, поэтому в статье пойдет речь не только об инцидентах, произошедших в первом квартале 2019 года, но и об утечках, которые произошли раньше, но о которых стало известно только недавно.
Пожалуй, самым значительным событием в области утечки данных в рассматриваемый период стало появление в открытом доступе самого большого за всю историю сборника данных пользователей, получившего название Collection ("Коллекция").
18 января многие СМИ начали публиковать информацию о том, что в открытом доступе хранится база данных на 773 млн почтовых ящиков с паролями (в том числе и пользователей из России). Это не база данных какого-то одного сервиса, а накопленная за весьма продолжительное время коллекция из утекших баз данных порядка двух тысяч различных сайтов, получившая название Collection #1. По размеру она представляла собой вторую в истории базу взломанных адресов (первой считался архив с 1 млрд пользователей Yahoo!, появившийся в 2013 году).
Первым про базу написал эксперт по кибербезопасности Трой Хант, создавший сервис Have I Been Pwned для проверки взлома почтовых ящиков. По данным Ханта, объём Collection #1 составляет 87 Гбайт. В архиве есть 12 тысяч файлов. Ссылка на него была размещена на одном из популярных хакерских форумов, причём в открытом разделе и бесплатно. Сама база размещалась на облачном сервисе Mega.
На этом история с крупнейшей утечкой не закончилась. Оказалось, что Collection #1 — это только первая часть масштабного массива данных, попавших в руки хакеров. Исследователи по информационной безопасности обнаружили «Коллекции» под номерами от 2 до 5 суммарным объемом 845 Гбайт. Информация, находящаяся в базе, по большей части актуальна, хотя некоторые логины и пароли устарели.
По сообщению издания “Газета.ру”, ИБ-эксперт Брайан Кребс связался с хакером, который продает эти архивы, и выяснил, что Collection #1 уже около двух-трех лет. Как сообщил хакер, «в продаже» у него есть и более свежие базы данных, общий объем которых составляет свыше четырех терабайт.
Проверить, находится ли ваш почтовый адрес в “Коллекциях”, можно при помощи специального инструмента, созданного в Институте Хассо Платтнера. На сайте нужно ввести адрес своей электронной почте — и на нее придет письмо с соответствующей информацией. Проверить безопасность своего почтового адреса можно и на сайте Троя Ханта.
⇡#Утечка данных пользователей 16 крупных сайтов
Еще одной неприятной новостью первого квартала стало появление архива с данными миллионнов пользователей 16 крупных сайтов.
О происшествии 11 февраля сообщило издание The Register: в даркнете на торговой площадке Dream Market выставлены на продажу данные 620 миллионов пользователей следующих сервисов: Dubsmash (162 млн), MyFitnessPal (151 млн), MyHeritage (92 млн), ShareThis (41 млн), HauteLook (28 млн), Animoto (25 млн), EyeEm (22 млн), 8fit (20 млн), Whitepages (18 млн), Fotolog (16 млн), 500px (15 млн), Armor Games (11 млн), BookMate (8 млн), CoffeeMeetsBagel (6 млн), Artsy (1 млн), а также DataCamp (700 000). За архив данных злоумышленники суммарно просят около 20 000 долларов (в биткоинах), но можно купить базы каждого сайта отдельно (цена варьируется от нескольких сотен до двух тысяч долларов).
Сайты компаний были взломаны в разное время. Например, онлайн-платформа для фотографов 500px сообщила, что утечка произошла еще 5 июля 2018 года, хотя о ней стало известно только после публикации архива с данными.
Утекшие данные содержат email-адреса, имена пользователей и пароли. Правда, не может не радовать то, что пароли в основном так или иначе зашифрованы, то есть, чтобы их использовать, сначала их надо расшифровать. Однако если пароль простой, то его взлом — просто методом подбора — не составит особого труда.
После выхода публикации The Register многие из перечисленных компаний признали, что действительно пострадали от атак и теперь уведомляют о случившемся пользователей или даже принудительно сбрасывают пароли.
Так, например, сервис для чтения книг Bookmate разослал российским пользователям письмо с предупреждением об утечке их данных, включая имена, адреса электронной почты и зашифрованные с помощью алгоритма bcrypt с солью пароли. В сообщении было отмечено, что по этой причине пароли пользователей остались в безопасности, но тем не менее компания посоветовала их все-таки поменять, а также заменить пароли во всех других сервисах, если они совпадают.
Расследования начали также сервис создания и обмена видеосообщениями Dubsmash, фотохостинг 500px, сайт стоковых снимков EyeEm и обучающая платформа DataCamp. Если у вас есть аккаунт в каком-либо из перечисленных сайтов, то рекомендуется заменить пароль.
⇡#Незащищенная база данных MongoDB
25 февраля специалист по информационной безопасности Боб Дьяченко обнаружил в сети незащищенную базу данных MongoDB, содержавшую 150 Гбайт личных данных. В архиве было свыше 800 миллионов записей. В базе данных хранились email-адреса, фамилии, информация о поле и дате рождения, телефонные номера, почтовые индексы и адреса, IP-адреса (отдельно обращаем ваше внимание: никаких паролей в ней не было). Эта подборка информации была уникальной и ранее не входила ни в одну из известных утечек.
Удалось установить, что проблемная БД принадлежит фирме Verifications IO LLC, которая занималась email-маркетингом. Одной из услуг, предоставляемых компанией, была проверка корпоративных адресов электронной почты. Сразу после уведомления о проблемной базе данных сайт компании и сама база данных стали недоступными. Позже представители Verifications IO LLC сообщили, что база содержала информацию, собранную из открытых источников, но не данные клиентов компании.
По мнению Боба Дьяченко, база пополнялась следующим образом: кто-то загружал список адресов электронной почты, которые он хотел проверить, и далее Verification.io просто отправляла на них электронные письма. Если письмо доставлялось, электронная почта считалась рабочей и заказчик получал список рабочих адресов электронной почты с именами пользователей и другой найденной информацией. А данные проверки заносились в базу данных MongoDB, как выяснилось, незащищенную.
В целом адрес электронной почты и имя пользователя — не то чтобы супер конфиденциальная информация, но база с миллионами рабочих адресов — замечательный подарок для спамеров или хакеров, которые занимаются рассылкой вирусов по почте. Успел ли кто-то из злоумышленников этим воспользоваться — или Дьяченко обнаружил базу первым, пока не известно.
⇡#Сотни миллионов паролей Facebook✴ в незашифрованном виде
21 марта журналист Брайан Кребс в блоге KrebsOnSecurity со ссылкой на слова инсайдера в Facebook✴ сообщил, что социальная сеть Facebook✴ долгое время хранила миллионы паролей в незашифрованном виде. Около 20 тысяч сотрудников компании могли прочитать пароли от 200 до 600 миллионов пользователей Facebook✴, поскольку те хранились в простом текстовом формате. В эту незащищенную базу попали и некоторые пароли Instagram✴. Вскоре сама соцсеть официально подтвердила информацию в своём блоге.
Педро Канахуати, вице-президент Facebook✴ по проектированию, безопасности и конфиденциальности, заявил, что в целом системы входа в систему в Facebook✴ спроектированы так, чтобы пароли были замаскированы, то есть нечитаемыми, а данная проблема с хранением паролей в незашифрованном виде была исправлена. В качестве меры предосторожности компания уведомит о необходимости сменить пароли тех пользователей, чьи пароли находились в данной базе. Доказательств того, что к незашифрованным паролям был получен неправомерный доступ, компания не нашла. Педро Канахуати подчеркнул, что пароли никогда не были видны никому, кроме сотрудников социальной сети.
Формально хранение паролей в незашифрованном виде нельзя считать утечкой данных — пока никто из сотрудников не унесет эту базу данных и не использует ее в своих целях. Facebook✴ утверждает, что свидетельств таким злоупотреблениям не нашла, но пароль лучше все-таки поменять — для пущей безопасности.
⇡#Утечка данных пользователей Facebook✴ через приложения FQuiz и Supertest
10 марта издание The Verge сообщило о том, что компания Facebook✴ подала в суд на двух украинских разработчиков — Глеба Случевского и Андрея Горбачева — за кражу персональных данных пользователей.
Разработчики создавали для социальной сети приложения для проведения тестов. Эти программы устанавливали расширения в браузер, которые позволяли получать доступ к данным пользователей. Кража данных осуществлялась с 2017 по 2018 год при помощи четырех приложений, в том числе FQuiz и Supertest. По оценкам специалистов, всего разработчики могли украсть данные около 63 тысяч пользователей — в основном из России и Украины.
Социальная сеть заявила, что разработчики «причинили непоправимый вред репутации компании». На расследование утечки компания потратила 75 тысяч долларов. Сомнительно, что ИТ-гиганту удастся что-то отсудить, однако, подав в суд на разработчиков, компания снимает с себя ответственность.
⇡#Утечка данных клиентов Тойоты
В конце марта японский автопроизводитель Toyota заявил о том, что в результате действий хакеров могла произойти масштабная утечка персональных данных до 3,1 миллиона клиентов компании. Взлом систем торговых подразделений и пяти дочерних компаний Toyota произошел 21 марта.
В сообщении не было сказано о том, какие именно персональные данные клиентов были похищены. Однако компания заявила, что доступ к информации о банковских картах злоумышленники не получили.
Естественно, компания, как и полагается в таких случаях, подчеркнула, что будет предпринимать меры “по обеспечению сохранности информации у своих дилеров и внутри всей Toyota Group".
⇡#Публикация данных пациентов Липецкой области на сайте ЕИС
21 марта активисты общественного движения “Пациентский контроль” сообщили о том, что в информации, опубликованной Управлением здравоохранения Липецкой области на сайте ЕИС, были предоставлены персональные данные пациентов. На сайте госзакупок управление объявило несколько аукционов на оказание медицинских услуг в неотложной форме: пациентов нужно было перевести в другие учреждения за пределы региона. В описаниях указаны фамилия пациента, домашний адрес, диагноз, код по МКБ, профиль и так далее. Причем в открытом виде данные пациентов публиковались уже не менее восьми раз, начиная с 2018 года. Вряд ли пациент или его законный представитель давали письменное согласие на публикацию этих сведений.
Глава Управления здравоохранения Липецкой области Юрий Шуршуков заявил, что начато служебное расследование и что пациентам, чьи данные были опубликованы, будут принесены извинения. Прокуратура Липецкой области также начала проверку сообщений СМИ о данном инциденте.
Полностью защититься от того, что ваши данные могут куда-то утечь, невозможно, но снизить вероятность использования украденной информации злоумышленником может каждый: делайте пароли сложными, чтобы их нельзя было просто подобрать, и уникальными, чтобы взлом одного аккаунта не повлек за собой взлом остальных. Включайте двухфакторную аутентификацию везде, где можно, — в этом случае даже утекший пароль не позволит увести ваш аккаунт. И старайтесь не разбрасываться личной информацией — чем меньше сервисов знают ваш телефон, адрес и другие данные, тем меньше вероятности, что они куда-либо утекут. Наиболее чувствительную информацию — вроде сканов паспорта — не стоит размещать даже в самых безопасных сервисах. |
985,307 | The Walking Dead: The Final Season — пора прощаться. Рецензия | |
Жанр |Приключение
|
Издатель |Telltale Games, Skybound Games
|
Разработчик
|
Минимальные требования |Процессор Intel Pentium 4 2,0 ГГц / Athlon XP 1700+ 1,46 ГГц, 3 Гбайт ОЗУ, видеокарта с 512 Мбайт памяти и поддержкой DirectX 9, например NVIDIA GeForce 205 / ATI Radeon HD 4200, 2 Гбайт на жестком диске, интернет-соединение и учетная запись в Steam или Epic Games Store
|
Рекомендуемые требования |Процессор Intel Core 2 Duo E4600 2,0 ГГц/Athlon 5050e Dual Core 2,6 ГГц, 3 Гбайт ОЗУ, видеокарта с 768 Мбайт/1 Гбайт памяти, например NVIDIA GeForce GT 130/AMD Radeon HD 4650
|
Дата выхода |14 августа 2018 года — 26 марта 2019 года
|
Возрастной ценз |от 18 лет
|
Платформы |PC, PlayStation 4, Xbox One, Nintendo Switch
*Игра протестирована на PС*
Telltale Games настолько увязла в болоте The Walking Dead и так заездила формулу, сделавшую игру успешной, что в конечном итоге пошла на дно. Судьба финального сезона игровой вариации «Ходячих» после драматичных событий с закрытием студии и увольнением кучи сотрудников какое-то время была неизвестна, однако в конечном итоге его подхватила Skybound Games Роберта Киркмана, приютившая часть «сказочников». Хотя лучше бы история Клементины оборвалась на полуслове, чем получила настолько невнятную концовку.
The Final Season вызывал опасения ещё с первой серии, когда вместо хоть сколько-нибудь интересных ситуаций и выкручивания драмы на максимум сценаристы вновь решили ходить кругами, предлагая очередной лагерь и очередных выживших с проблемами как в коллективе, так и в отношениях с соседями. От замены подростков взрослыми ничего толком не изменилось, а необходимость вводить в повествование с десяток новых героев сильно сказалась на темпе рассказа. В результате из четырёх эпизодов заключительного сезона три отведены на спешное знакомство и участие в редких экшен-сценках. Потом внезапно приходит финал, которому за час с небольшим нужно всё подытожить. И это кульминация?!
Вообще, одна из самых больших проблем семилетней эпопеи с виртуальной The Walking Dead заключается в том, что каждый чёртов раз всё начинается заново, с нуля. Если в дебютном выпуске задумка была действительно свежей, а за героев переживал, как за себя родного, то второй сезон уже разъезжался во все стороны. В напарниках были по большей части неизвестные люди, к ним нужно привыкать, концепция «Он это запомнит» на деле толком не работала, а персонажи вокруг всё равно умирали, потому что так было нужно. Игр становилось всё больше, а вовлечённости — меньше. Этого застрелили? Да и ладно. Другого похитили, нужно организовывать операцию по его спасению? Э-э-э, напомните, как его зовут?
Вся эта чехарда не позволяет привязаться к персонажам, поэтому во время их «внезапной» гибели никаких эмоций не испытываешь. The Final Season ходит по тем же граблям. Не успеваешь встретить ребят, как они через час начинают помирать. Вот уж спасибо, а то мы не знали, что в мире «Ходячих» человек человеку — волк, а зомби тут могут сожрать любого.
Технически здесь есть мостик в прошлое — в виде Клементины и Эй-Джея, однако вместо развития характеров их заставляют делать всё то, что уже было десятки раз до этого. Опять выслушивать скучные речи про несправедливость и сложность нового мира от персонажей, которые воспринимаются как виртуальные болванки. Опять выживать, убивая то зомби, то людей. Опять кого-то там спасать. Ау-у-у-у! У нас тут финал, а вы делаете двухчасовые серии, в которых полтора часа отводится на бесполезные разговоры и добычу еды?
The Walking Dead во всех вариациях уже который год не может предложить ничего нового и продолжает полагаться на протухшие сюжетные ходы. Даже с учётом того, что Эй-Джей учится на ваших действиях, и чем жёстче вы обращаетесь с окружающими, тем более обозлённым и бессердечным станет паренёк. Да и отсылки к первому сезону выглядят слишком беспомощно.
Из-за скучности происходящего в глаза лезут игровые условности и логические нестыковки, которые при захватывающем повествовании можно было бы и не заметить. Клем, например, носит с собой миллион стрел, и, как только в её руки попадает лук, она может палить во все стороны хоть до второго пришествия. Человека, находящегося в толпе зомби, не кусают до тех пор, пока не потребуется показать его «трагическое» поедание в нужный момент. Наконец, почему отрубание конечности внезапно помогает уже почти протянувшему ноги герою? Видимо, потому, что сценаристы так захотели.
The Final Season не смог предложить ни достойного финала истории Клементины, ни хотя бы хорошего окончания сезона. За четыре эпизода разработчики даже не попытались поставить какие-то точки, а болтали так, будто у них ещё несколько лет в запасе. Будто происходящее — только начало чего-то более грандиозного. Да, интерактивных элементов в игре стало куда больше, а локации местами просторнее, однако это ничуть не помогает. Пар в котле давным-давно закончился.
**Достоинства**: **Недостатки**:
|
|
Забавно, что это единственный аспект сезона, к которому довольно сложно придраться. Картинка не блещет технологическими изысками, но выглядит стильно и приятно.
|
|
Актёры неплохо зачитывают свои роли, зомби заунывно воют. Жить можно.
|
|
Интерактивные элементы вроде пряток от прожектора или расстрела зомби из лука выглядят неплохо, однако всё остальное повторяется чуть ли не до запятой.
|
|
Не предусмотрена.
|
|
Отличный пример того, как не стоит заканчивать длинные сериалы. Вместо захватывающей концовки получился один из самых скучных сезонов «Ходячих». Пожалуйста, не нужно больше.
*Оценка: 5,0* */* *10* **Видео**: |
985,375 | Обзор и тестирование кулера ARCTIC Freezer 34 eSports DUO | В конце января текущего года компания ARCTIС анонсировала сразу четыре новые модели процессорных кулеров: Freezer 34, Freezer 34 CO, Freezer 34 eSports и Freezer 34 eSports DUO. Все они — дальнейшее развитие серии кулеров Freezer 33, одного из представителей которой мы тестировали чуть больше года назад. Новые модели получили усовершенствованный радиатор и оптимизированные вентиляторы, но в целом сохранили концепцию — это по-прежнему однобашенные кулеры умеренных размеров. Тем удивительнее, что теперь ARCTIC при сопоставимом уровне шума 28 дБА позиционирует эффективность данных моделей на уровне лучших представителей воздушного охлаждения, включая Noctua NH-D15.
Подтвердить наивысший класс охлаждения сегодня в нашем тестировании попытается самая производительная версия – ARCTIC Freezer 34 eSports DUO, для которой заявлен уровень TDP 210 ватт. Этого достаточно для охлаждения любых существующих процессоров.
Отметим, что кулер выпускается в четырёх цветах: зелёном, красном, белом и жёлтом. Нам на тестирование была предоставлена версия Freezer 34 eSports DUO с красными вентиляторами.
⇡#Технические характеристики и стоимость
Наименование технических характеристик ARCTIC Freezer 34 eSports DUO
|
Размеры кулера (В × Ш × Т), вентилятора, мм |159 × 124 × 104
|(120 × 120 × 25, 2 шт.)
|
Полная масса, г |767
(502 – радиатор)
|
Материал радиатора и конструкция |Башенная конструкция из алюминиевых пластин с термическим покрытием на 4 медных тепловых трубках диаметром 6 мм, являющихся частью основания (технология HDT)
|
Количество пластин радиатора, шт. |54
|
Толщина пластин радиатора, мм |0,35
|
Межрёберное расстояние, мм |1,7
|
Расчётная площадь радиатора, см 2 |6 130
|
Термическое сопротивление, °С/W |н/д
|
Тип и модель вентилятора |BioniX P120
|
Скорость вращения вентилятора, об/мин |200–2100
|
Воздушный поток, CFM |67,56 (макс.)
|
Уровень шума |0,5 сон
|
Статическое давление, мм H 2O |2,75 (макс.)
|
Количество и тип подшипников вентилятора |1, гидродинамический
|
Время наработки вентилятора на отказ, часов/лет |н/д
|
Номинальное/стартовое напряжение вентилятора, В |12 / 3,6
|
Сила тока вентилятора, А |0,13
|
Заявленное/измеренное энергопотребление вентилятора, Вт |1,56 / 1,41
|
Возможность установки на процессоры с разъёмами |Intel LGA115x/2011(v3)/2066
AMD Socket AM4
|
Максимальный уровень TDP процессора, Вт |210
|
Дополнительно (особенности) |Два вентилятора с ШИМ-управлением, термопаста Arctic MX-4 0,8 г (8,5 Вт/(м·К)
|
Гарантийный срок, лет |10
|
Розничная стоимость, руб. |
3 100
ARCTIC Freezer 34 eSports DUO поставляется в компактной коробке из плотного картона. Она оформлена в красном и чёрном тонах, а на её лицевой стороне приведено фото кулера и, кроме всего прочего, ярлычок с сообщением о десятилетней гарантии.
Из информации, размещённой на обратной и боковых сторонах коробки, выделим технические характеристики и описание ключевых особенностей кулера, а также диаграмму, из которой следует, что Freezer 34 eSports DUO почти на 4 градуса Цельсия эффективнее модели Freezer 33.
На основании коробки приведены штрихкоды и указана страна производства, которой является Китай.
Аксессуары размещены в плоской коробке над кулером. Внутри можно найти пластиковую усилительную пластину на обратную сторону материнской платы (backplate), две стальные направляющие, комплекты втулок и винтов, краткую инструкцию и маленький пакетик термопасты ARCTIC MX-4.
О гарантии и стране производства мы уже сказали выше, поэтому остаётся добавить, что рекомендованная стоимость системы охлаждения заявлена на отметке 39,99 доллара США. В России его уже можно приобрести по цене от 3 100 рублей.
При первом взгляде на ARCTIC Freezer 34 eSports DUO кажется, что отличий от Arctic Freezer 33 eSports Edition у новинки совсем немного. Всё та же «башня» в примерно тех же габаритах, четыре тепловые трубки, два вентилятора... Всё это мы уже видели в его предшественнике. Но здесь важны детали, которые мы с вами и разберём по ходу статьи. Отметим, что в целом кулер выглядит весьма привлекательно – чёрный радиатор всё ещё редкость в процессорных системах охлаждения, поэтому смотрится необычно, а вентиляторы с алыми вставками удачно контрастируют с ним.
Размеры и масса кулера приведены на фото ниже, но у нас получились немного другие цифры: 159 × 124 × 104 мм и 767 граммов, из которых 502 грамма приходятся на радиатор.
ARCTIC Freezer 34 eSports DUO — кулер классической башенной конструкции с симметричным вертикально ориентированным радиатором и двумя 120-мм вентиляторами, установленными на него по схеме «вдув-выдув».
При этом боковые стороны радиатора полностью закрыты загнутыми вниз концами рёбер. Таким образом, весь воздушный поток прокачивается через радиатор, и лишь небольшая часть уходит через проёмы над радиатором и под ним, образовавшиеся из-за того, что диаметр вентиляторов чуть больше.
Из технических составляющих назовём 54 алюминиевые пластины размерами 124 × 49 (43) мм в пакете радиатора, напрессованные на тепловые трубки с межрёберным расстоянием 1,7 мм. Толщина каждой пластины равна 0,35 мм. Расчётная площадь радиатора составляет 6130 см
2, что на 11 % больше, чем у моделей Freezer 33 (5530 см 2). Это приятное улучшение, хотя теперь пластины сидят на тепловых трубках плотнее, и, чтобы эффективно их продуть, требуются более производительные вентиляторы. Впрочем, инженеры ARCTIC попутно решили и эту проблему, но об этом чуть позже.
Ещё одно отличие от радиатора предшественника — у всех Freezer 34 торцы рёбер выполнены в виде острых треугольных зубьев.
Цель понятна – снизить сопротивление воздушному потоку вентиляторов и повысить эффективность работы кулера на низких скоростях.
Третьим — после площади радиатора и торцов пластин — нововведением стало специальное «термическое» покрытие пластин. Дело в том, что их поверхность не гладкая, как у Freezer 33, а имеет микроструктуру, которая прекрасно ощущается тактильно. По мнению разработчиков, такая поверхность пластин должна более эффективно взаимодействовать с воздушным потоком и быстрее отдавать тепло.
В тепловых трубках также произошли изменения. Их общее количество и диаметр остались прежними – 4 штуки и 6 мм, но теперь они максимально далеко отставлены друг от друга, равномернее распределяя тепловой поток по рёбрам радиатора.
Основание радиатора ARCTIC Freezer 34 eSports DUO выполнено по технологии прямого контакта. Причём производитель заявляет о совместимости кулера с самыми большими процессорами, включая 18-ядерные Intel Core i9-7980 XE.
Этот момент довольно странный, поскольку размеры контактной поверхности основания составляют всего 40 × 25 мм, а этого не хватает даже для того, чтобы полностью накрыть теплораспределитель маленького Intel Core i7-8700K.
Как видим, контактная поверхность обработана весьма посредственно, следы от фрезы ощущаются тактильно, никакой полировкой здесь и не пахнет. А вот к её ровности претензий нет — отпечатки на нашем процессоре конструктивного исполнения LGA1151 получились близкие к эталонным.
Как мы уже упоминали выше, в дополнение к усовершенствованному радиатору кулер оснастили двумя новыми вентиляторами модели BioniX P120. По мнению разработчиков, они идеально подходят для данного радиатора, максимально быстро отводя нагретый воздух. Широкие и агрессивно изогнутые лопасти вентиляторов спроектированы специально для повышения статического давления и прокачивания воздуха через такие плотные радиаторы, как у ARCTIC Freezer 34 eSports DUO.
Заявленная в спецификациях скорость вращения вентиляторов, регулируемая ШИМ, находится в диапазоне от 200 до 2100 об/мин, но возможна и полная остановка крыльчаток вентиляторов. Максимальный воздушный поток одного вентилятора может достигать 67,6 CFM, а уровень шума не должен превышать 0,5 сон. А вот максимальное статическое давление вентилятора заявлено на отметке 2,75 мм H
2O, что действительно высоко для 120-мм вентиляторов. К сожалению, у вентиляторов BioniX F120, которыми оснащаются Freezer 33, статическое давление в характеристиках не заявлено, поэтому сравнить эти характеристики не представляется возможным.
Новые вентиляторы не просто развивают большее статическое давление, а еще и стали экономичнее. В спецификациях заявлен уровень энергопотребления 1,56 Вт при 0,13 А, а по результатам наших измерений получилось даже чуть меньше – всего 1,41 Вт (речь о максимальной скорости). Это действительно впечатляющий показатель, которым ранее могли похвастать только отдельные модели вентиляторов Noctua, несопоставимые с ARCTIC по цене.
Добавим, что стартовое напряжение вентиляторов также оказалось очень низким — 3,5-3,6 В.
Что касается типа подшипников вентиляторов, то здесь никаких изменений не произошло. В BioniX P120 используются гидродинамические подшипники со встроенной капсулой смазки.
Срок их службы в характеристиках не указан, но, поскольку на кулер предоставляется десятилетняя гарантия, можно рассчитывать, что прослужат они очень долго.
На радиаторе вентиляторы закрепляются двумя проволочными скобками.
Вентилятор, нагнетающий воздух в радиатор, не имеет никаких антивибрационных развязок, а вот установленный на выдув вентилятор получил маленькие силиконовые наклейки, которые должны гасить вибрации и снижать уровень шума.
Для подключения вентиляторов используется хорошо знакомая нашим постоянным читателям схема последовательного соединения (PST), когда к кабелю одного вентилятора подключается кабель второго — так можно соединить их до четырёх штук.
ARCTIC Freezer 34 eSports DUO совместим с процессорами Intel LGA2011/2066/115x и процессорами AMD Socket AM4. Для закрепления кулера предусмотрены две стальные направляющие, приворачиваемые к его основанию.
Дальше на платформах Intel LGA2011/2066 и AMD Socket AM4 используются штатные пластины материнских плат с ввёрнутыми в них втулками. А вот для платформ Intel с разъёмами LGA115x необходимо применять пластиковую backplate с втулками и винтами с накатанной головкой.
Отметим один интересный нюанс: монтажные шпильки вворачиваются в отверстия backplate без подкладки под них шайб, поэтому напрямую контактируют с текстолитом платы.
На наш взгляд, это упущение производителя, поскольку непосредственно под втулками проходят контактные дорожки платы, и, если усердствовать с затягиванием, можно их повредить.
Для прижима кулера к процессору используются винты с накатанной головкой.
Не ст
*о*ит забывать про необходимость их равномерно затягивать, а также наносить термопасту.
Расстояние от нижней пластины радиатора до материнской платы после установки кулера на процессор оказалось равно 45 мм, а вентилятор висит примерно на 7 мм ниже.
Но в целом кулер сравнительно узкий, поэтому не должен помешать высоким радиаторам оперативной памяти. Разве что в ближайшем к процессорному разъёму слоте, но в него на современных платах модули устанавливаются редко. Как правило, они размещаются во втором и четвёртом слотах.
Внутри корпуса системного блока новый ARCTIC Freezer 34 eSports DUO выглядит аккуратно, а возможность выбрать вентиляторы одного из четырёх цветов позволит подобрать модель, сочетающуюся с интерьером корпуса и его комплектующими. Подсветки нет.
Высота установленного на процессор ARCTIC Freezer 34 eSports DUO составляет 164 мм.
** Тестовая конфигурация, инструментарий и методика тестирования**
Оценка эффективности кулера ARCTIC Freezer 34 eSports DUO и его конкурента была проведена в закрытом корпусе системного блока следующей конфигурации:
Для оценки эффективности систем охлаждения частоту процессора на BCLK, равной 100 МГц, при фиксированном в значении
**48** множителе и установленной на уровень стабилизации Turbo функции Load-Line Calibration мы зафиксировали на отметке **4,8** ** ГГц** с одновременной установкой напряжения в BIOS материнской платы в значении **1,245 В**.
Напряжение VCCIO было выставлено на 1,000 В, а VCCSA – на 0,950 В. В свою очередь, напряжение модулей оперативной памяти фиксировалось на отметке 1,35 В, а её частота составляла 3,0 ГГц с таймингами 16-18-18-36 CR1. Кроме этого, в BIOS были внесены ещё несколько изменений, относящихся к разгону процессора и оперативной памяти.
Тестирование было проведено в операционной системе Microsoft Windows 10 Pro версии 1809 (17763.379). Программное обеспечение, использованное для теста:
Полный снимок экрана во время проведения одного из циклов тестирования выглядит следующим образом.
Нагрузка на процессор создавалась двумя последовательными циклами Prime95. На стабилизацию температуры процессора между циклами отводилось по 13–15 минут. За окончательный результат, который вы увидите на диаграмме, принята максимальная температура наиболее горячего из восьми ядер центрального процессора в пике нагрузки и в режиме простоя. Кроме этого, в отдельной таблице будут приведены температуры всех ядер процессора, их усреднённые значения и дельта температур между ядрами. Температура в помещении контролировалась установленным рядом с системным блоком электронным термометром с точностью измерений 0,1 °C и с возможностью почасового мониторинга изменения температуры в помещении за последние 6 часов. Во время данного тестирования температура колебалась в диапазоне
**25,5–25,7** °C.
Измерение уровня шума систем охлаждения проводилось электронным шумомером «ОКТАВА-110А» в период от ноля до трёх часов ночи в полностью закрытой комнате площадью около 20 м
** со стеклопакетами. Уровень шума измерялся вне корпуса системного блока, когда источником шума в комнате являлся только сам кулер/СЖО и его вентилятор(ы). Шумомер, зафиксированный на штативе, всегда располагался строго в одной точке на расстоянии ровно 150 мм от ротора вентилятора. Системы охлаждения размещались на самом углу стола на пенополиуретановой подложке. Нижняя граница измерений шумомера составляет 22,0 дБА, а субъективно комфортный (просьба не путать с низким!) уровень шума кулеров при измерениях с такого расстояния находится около отметки 36 дБА. За условно низкий уровень шума мы принимаем значение 33 дБА. 2**
Эффективность и уровень шума ARCTIC Freezer 34 eSports DUO мы сравним с показателями кулера Scythe Kotetsu, который имеет сопоставимые габариты и количество тепловых трубок, хотя и не относится к прямоконтактным кулерам, а также оснащён всего одним вентилятором.
Добавим, что регулировка скорости вращения вентиляторов систем охлаждения производилась с помощью специального контроллера с точностью ±10 об/мин в диапазоне от 800 об/мин до их максимума с шагом 200 или 400 об/мин.
⇡#
** Результаты тестирования и их анализ**
Результаты тестирования эффективности систем охлаждения представлены на диаграмме и в таблице.
Чуда не произошло, и ARCTIC Freezer 34 eSports DUO с двумя вентиляторами на максимальных скоростях смог продемонстрировать лишь такую же эффективность, как и скромный Scythe Kotetsu с одним вентилятором на 1400 об/мин. При 1200 об/мин новый кулер ARCTIC проигрывает уже 7 градусов Цельсия в пике нагрузки, при 1000 об/мин – всё те же 7 градусов, а при 800 об/мин Freezer 34 eSports DUO не справился с охлаждением процессора, тогда как Scythe Kotetsu всё ещё был способен обеспечивать его работоспособность, пусть и на близких к предельным температурах. Причины столь неубедительного выступления Freezer 34 eSports DUO, на наш взгляд, кроются в прямом контакте и отсутствии пайки тепловых трубок к пластинам. Что касается заявленного производителем противопоставления с Noctua NH-D15, то этот суперкулер выигрывает у новинки 8 градусов Цельсия даже при минимальных скоростях двух своих вентиляторов.
Тем не менее мы попытались проверить эффективность ARCTIC Freezer 34 eSports DUO при более высокой частоте процессора, зафиксировав её на уровне 4,9 ГГц при напряжении 1,305 В.
Не прошло и трёх минут работы под нагрузкой, как пиковая температура достигла отметки 104 градуса Цельсия, и мы были вынуждены остановить тест Prime95.
В целом можно сказать, что эффективность охлаждения у ARCTIC Freezer 34 eSports DUO находится на среднем уровне, и проверять новый кулер на более горячем Intel Core i9-7900X смысла уже не было. Поэтому мы перешли к измерениям уровня шума.
А вот здесь Freezer 34 eSports DUO смог нас приятно удивить. Новые вентиляторы ARCTIC работают очень тихо для своих скоростей и даже в паре заметно выигрывают у одного вентилятора Scythe. Так, например, на границе субъективного комфорта 36 дБА два вентилятора ARCTIC работают на скорости на 300 об/мин выше, чем один вентилятор Scythe, а на границе условной бесшумности – на 280-290 об/мин выше. Если учитывать эту разницу при оценке эффективности охлаждения двух данных кулеров, то на скоростях 1000 и 1200 об/мин Kotetsu будет выигрывать всего пару градусов Цельсия, а при 800 об/мин – всего один градус Цельсия. Тем не менее от Freezer 34 eSports DUO в плане эффективности мы определённо ждали большего.
В первую очередь ARCTIC Freezer 34 eSports DUO можно похвалить за качественные вентиляторы с низким уровнем шума. Благодаря специальной форме крыльчатки и новому экономичному электродвигателю, BioniX P120 готовы дать фору большинству других моделей 120-мм вентиляторов, работая очень тихо до скорости 1200 об/мин и вполне комфортно до 1300 об/мин. Кроме этого, отметим привлекательный дизайн системы охлаждения с возможностью выбора из четырёх цветовых оформлений, совместимость со всеми актуальными платформами, высокоэффективную термопасту ARCTIC MX-4 в комплекте поставки и десятилетнюю гарантию.
К сожалению, эффективность охлаждения – не самая сильная сторона Freezer 34 eSports DUO. Несмотря на увеличение площади радиатора, наличие термического покрытия и более продуманное, чем у Freezer 33, расположение тепловых трубок в пластинах, кулер не демонстрирует высокий уровень эффективности охлаждения и, на наш взгляд, по этому критерию проигрывает своим конкурентам, которых в данном ценовом диапазоне очень много. Отсутствие пайки пластин к тепловым трубкам и прямой контакт в основании наверняка делают процесс сборки радиатора проще и дешевле, но на эффективности охлаждения эти факторы сказываются не лучшим образом. Причём это справедливо не только для систем охлаждения ARCTIC, но и для других CPU-кулеров. |
985,385 | Робот-уборщик ILIFE A9s – два в одном высокотехнологичном | Китайский производитель роботов-пылесосов ILIFE выпускает новые модели своих домашних помощников настолько часто, что угнаться за новинками простому пользователю не представляется возможным. Только вы приобрели, как считали, самую высокотехнологичную модель, как буквально через пару месяцев на рынке появляется новая, куда более совершенная. При этом избавляться от старой ещё совсем рано, а потому приходится мириться с положением дел и продолжать следить за развитием рынка. Нам же повезло куда больше. Нашу тестовую лабораторию всегда может пропылесосить и даже помыть самый совершенный бытовой робот, разработанный на данный момент.
Как раз к последним можно отнести и модель ILIFE A9s, совмещающую в себе функции подметания и мытья полов. Это устройство впервые было продемонстрировано широкой публике в январе этого года на прошедшей в Лас-Вегасе выставке CES 2019. Успешно отработав ряд технологий на предшествующих моделях, производитель наделил своего нового робота сразу полным набором возможностей, а попутно добавил и ещё парочку: функцию виброочистки напольного покрытия при влажной уборке и функцию виртуальной «стены», ограничивающей зону уборки. Пройти мимо такой интересной новинки и не протестировать её мы просто не смогли.
Устройство поставляется в традиционной для роботов ILIFE двойной картонной упаковке: чемоданчик с полиграфией и пластиковой ручкой уложен ещё в одну коробку, защищающую его от внешних воздействий. Внутри, кроме самого пылесоса, были найдены следующие аксессуары:
Кроме отдельно лежащих в коробке аксессуаров на пылесос уже были установлены:
Производитель не забыл ничего и даже положил дополнительные расходные части. Комплект поставки у ILIFE A9s приятно радует глаз своим разнообразием. Сразу видно, что этот робот может похвастаться не только уборкой пыли.
|
Робот-уборщик ILIFE A9s
|
Датчики |Камера оптическая PanoView
Датчики обнаружения препятствия
Датчики перепада высоты
|
Объём контейнера для мусора, л |0,6
|
Режимы работы |Пылесос («Авто» с обычной и максимальной мощностью, «Локальный», «Вдоль стен», «По расписанию», «Ручной»)
Мойка пола
|
Тип аккумулятора |Литий-ионный, 2600 мА·ч
|
Время зарядки аккумулятора, мин |300
|
Время работы, мин |120
|
Адаптер питания |19 В / 0,6 А
|
Габариты, мм |Ø330×76
|
Масса, кг |2,55
|
Ориентировочная цена*, руб. |22 100
** Примерная ц* *ена торговой * *площадки * *AliExpress * *на * *момент * *написания * *статьи*
Одна из ключевых особенностей новинки – это способ ориентации робота в пространстве. Кроме традиционных датчиков обнаружения препятствий и датчиков перепада высоты, не позволяющих устройству упасть с лестницы или парапета, у ILIFE A9s установлена система PanoView, с которой мы уже познакомились, когда тестировали пылесос ILIFE A8. Напомним, что это система определения местоположения и построения карты помещения по потолку, в основе которой лежит особый алгоритм работы и встроенная оптическая камера, ориентированная вертикально вверх. Мы не нашли недостатков в работе PanoView и у предыдущей модели, но по заявлению производителя, в новой модели сделаны усовершенствования. В частности улучшенный графический алгоритм CV-SLAM и встроенный гироскоп делают определение окружающего пространства более точным и помогают избегать пропусков и повторов в работе.
Встроенная камера имеет максимальный угол обзора, позволяющий роботу видеть не только потолок, но и высокие предметы или стены. Информацию обо всех остальных препятствиях, возникающих на пути устройства, система управления получает с двадцати двух датчиков обнаружения: механических, расположенных за подвижным передним бампером, и инфракрасных, находящихся в нижней части корпуса и предупреждающих о перепаде высоты. Ну а датчик движения под передним колесом служит для контроля за пройденным расстоянием. Система обнаружения препятствий у ILIFE даже имеет собственное наименование: OBS All-Terrain.
С системой очистки новинки мы знакомы по другим моделям роботов-уборщиков ILIFE. Речь идёт о хорошо зарекомендовавшей себя CyclonePower Gen 3, на элементы которой мы обязательно посмотрим при более детальном знакомстве с конструкцией робота. Пока же отметим, что в основе этой системы лежит высококачественный бесщёточный двигатель от японской компании Nidec Corporation, чьи электродвигатели используются в самом разном оборудовании, начиная с жёстких дисков и заканчивая автомобилями.
Но ILIFE A9s может не только пропылесосить пол, но ещё и помыть его. Технология мойки не нова, но её реализация у новинки весьма необычна, да и применяется у роботов ILIFE она впервые. В её основе вибрирующая платформа с чистящей салфеткой, приводящаяся в движение двигателем, размещённым в том же контейнере, в котором находится и бак с водой. Из последнего вода поступает через мельчайшие отверстия непосредственно на салфетку, смачивая её непрерывно, в течение всего процесса уборки.
Следующая особенность ILIFE A9s – это возможность управления роботом со смартфона, реализованная ранее у модели ILIFE A7, с которой мы познакомились в августе прошлого года. Для работы этой функции новинка оснащена модулем беспроводной связи Wi-Fi, при помощи которого она подключается к домашней сети, к которой должен быть подключён и ваш смартфон.
Ну и заключительная крупная техническая особенность новинки не нова для роботов других производителей, но у ILIFE используется впервые. Речь идёт о виртуальной стене Electrowall, преграждающей путь роботу в те углы вашего жилища, куда бы вы не хотели его пускать. Заграждение устанавливается при помощи дополнительного аксессуара, который ставится на пол и во включённом состоянии формирует перед собой барьер – невидимый для человека, но видимый для робота. К сожалению, производитель не раскрывает особенностей работы этого аксессуара, но совершенно точно при помощи него можно легко и быстро ограничить пространство уборки, например, одной комнатой или заставить пылесос работать в небольшом закутке на кухне.
На фоне всех описанных выше технологий наличие функции голосового оповещения о текущем состоянии у новинки уже не выглядит чем-то необычным. Впрочем, с функцией i-Voice мы уже знакомы по некоторым другим моделям уборщиков ILIFE. Судя по приведённому выше перечню технологий, можно с уверенностью утверждать, что это самая высокотехнологичная модель компании ILIFE.
Несмотря на то, что корпус нового робота выполнен в форме всё той же большой шайбы, внешность новинки производит куда более приятное впечатление, чем у её собратьев. Модель ILIFE A9s никак нельзя назвать скучной и невыразительной, да и преемственность поколений в данном случае прослеживается. Всё дело в наличии металлических деталей в оформлении корпуса. Бампер, а также задняя часть корпуса облицованы широкими серебристыми окантовками из алюминиевого сплава. Из него же выполнена и центральная часть верхней панели. Ну а всё остальное традиционно изготовлено из чёрного пластика. В результате робот стал похож на проигрыватель с виниловой пластинкой. Не хватает только какой-нибудь надписи в центральной части для ещё большего сходства. Такое устройство действительно может стать украшением дома, которое не захочется запихивать подальше под кровать.
Кстати, под кровать этот робот войдёт без труда. Его высота составляет всего 76 мм, что позволяет ему убирать пыль или мыть пол даже под некоторыми диванами, шкафами или комодами. В отличие от других моделей уборщиков ILIFE, передний бампер, за которым скрыты механические датчики обнаружения препятствия, выглядит у новинки весьма массивно. Вряд ли это как-то может сказаться на работоспособности устройства. Скорее это просто дань дизайну. Тем более что поглощающая удар полоска из мягкого материала по-прежнему приклеена по всей длине бампера, так что жёстких столкновений этого робота с мебелью и другими элементами оформления вашей квартиры ожидать не приходится.
Кроме декоративных элементов на верхней части корпуса размещена оптическая камера, сканирующая пространство над роботом и передающая информацию в блок управления для построения карты помещения. Там же расположена и круглая кнопка запуска устройства, а также индикатор подключения по Wi-Fi. Клавиша отключения питания находится на боковой поверхности, рядом с разъёмом для подключения адаптера питания. Последний может пригодиться вам в том случае, если по каким-то причинам вы не захотите или не сможете пользоваться зарядной станцией. Сбоку на корпусе также можно заметить отверстия для выхода воздуха.
Контейнер для мусора и бак для воды традиционно размещаются в задней части уборщика. Замок с автоматической фиксацией этих аксессуаров хорошо зарекомендовал себя на других моделях ILIFE. Самопроизвольного или случайного отсоединения контейнеров точно не произойдёт. Чтобы извлечь контейнер из корпуса, нужно просто нажать на массивную кнопку в его задней части, а затем потянуть назад.
Нижняя часть корпуса в основном такая же, как у большинства других роботов-пылесосов ILIFE последних поколений. Модель ILIFE A9s сохранила «внедорожную» подвеску больших основных колёс с огромным ходом, позволяющих роботу преодолевать высокие препятствия. Боковые колёса снабжены индивидуальными приводами и выполнены из пластика с мягкой покрышкой, имеющей глубокий протектор для лучшего сцепления с напольными покрытиями разных типов. Эти колёса имеют достаточно большой диаметр и большой ход подвески, который необходим устройству для преодоления высоких препятствий.
В передней части корпуса, между контактными площадками для подзарядки встроенного аккумулятора от зарядной станции, крепится третье съёмное колесо, не имеющее привода, но обеспечивающее устройству третью точку опоры. Под колесом находится датчик, отслеживающий пройденное расстояние.
Ещё три инфракрасных датчика, предназначенные для контроля за перепадом высоты, расположены на нижней части корпуса. Ну а датчики определения препятствий находятся за лицевым бампером устройства. Вот только определить их количество без вскрытия корпуса, увы, не представляется возможным, а подробных данных производитель не предоставляет.
С основной системой уборки (подметания) мы также знакомы по другим моделям роботов ILIFE. В её основе лежат трёхлучевые щётки в передней части корпуса, роторная щётка в центре и воздушный насос с воздуховодом, объединённым с соответствующим отсеком контейнера для мусора. Боковые трёхлучевые щётки робота легко снимаются и ставятся на место без применения инструмента.
Также легко снимается и центральная роторная щётка, установленная в специальном плавающем кармане, который обеспечивает максимальное прижимание к поверхности пола. Эта щётка имеет определённое направление вращения и приводится в движение при работе пылесоса двигателем, расположенным с одной из сторон. Так же, как и в случае с другими роботами-пылесосами ILIFE, в комплект поставки новинки входят две разные роторные щётки, предназначенные для разных покрытий. Для гладкого пола лучше использовать щётки с мягкими резиновыми гребнями, а для ковров подойдёт щётка с жёсткой щетиной.
Система очистки CyclonePower Gen 3 предусматривает два расположенных один над другим воздушных тракта. Пыль и мусор заметаются в центральное отверстие щётками и поднимаются по нижнему тракту насосом в съёмный контейнер. Последний в верхней части имеет фильтрующий комплект, через который воздух и протягивается уже по чистому верхнему тракту, после чего выбрасывается наружу через боковые отверстия в корпусе.
Контейнер для мусора у ILIFE A9s точно такой же, какой мы видели у других моделей этого производителя. В нём всё продумано буквально до мелочей. Его очень удобно открывать и выкидывать мусор, не пачкая руки. Удобно чистить фильтр. Его легко мыть и чистить. Ну а доступ к «грязному» отсеку закрыт небольшой пластиковой дверцей, предотвращающей случайное попадание мусора наружу. Разве что над конструкцией фильтрующего пакета стоило бы ещё немного подумать. Как показал более длительный опыт эксплуатации других моделей роботов ILIFE, фильтр тонкой очистки типа HEPA у них забивается достаточно быстро — уже через полгода его приходится менять. Впрочем, его стоимостьсоставляет всего лишь около трёхсот рублей.
Но у ILIFE A9s в комплекте поставки есть и второй контейнер или бак, предназначенный уже для воды. Выполнен он в том же стиле и из того же полупрозрачного пластика, что и контейнер для сбора пыли, но конструкция у него совершенно другая. В верхней части второго контейнера расположена заливная горловина с крупной резиновой заглушкой, но сама ёмкость для воды при этом занимает лишь небольшой объём. Вообще, весь объём этого контейнера разделён на три части. Кроме бака для воды в нём есть ещё двигательный отсек (в верхней и центральной частях), а также небольшая ёмкость для сбора пыли и мусора. Это совершенно новая конструкция контейнера, хотя некоторые её элементы и заимствованы у других моделей.
Двигательный отсек влагозащищён, но производитель всё равно запрещает опускать весь контейнер под воду. На одну из боковых граней этого отсека выведены контактные площадки для подключения к ответным частям на корпусе робота. Ну а снизу, через крупные резиновые конусы, сам двигатель соединяется с большим пластиковым основанием с липучками для крепления салфетки для мойки пола. С этим же основанием объединён и бак для воды, которая выводится на салфетку через мельчайшие отверстия. Двигатель обеспечивает вибрацию платформы с салфеткой. При этом вода из бака с водой пропитывает салфетку, а робот, перемещаясь, протирает пол.
Чтобы не размазывать по полу встречающуюся на пути пыль, в режиме протирки пола работает ещё и функция его подметания. Вот только ёмкость для мусора и пыли у второго контейнера сильно ограничена. Совершенно очевидно, что лучше сначала пропылесосить пол, а уже затем, заменив контейнер, мыть его. Как видите, ILIFE A9s по характеру уборки не похож ни на одну из моделей роботов разных производителей, с которыми мы знакомились ранее. Тем интереснее будет узнать, как это устройство покажет себя в работе.
Но, прежде чем приступить к тестированию, давайте ещё взглянем на оставшиеся аксессуары из комплекта поставки ILIFE A9s. С чем-то мы уже знакомы по другим моделям роботов ILIFE, ну а кое-что встречаем впервые. К последним относится устройство, организующее виртуальный барьер для робота, названное производителем Electrowall. Оно представляет собой компактную пластиковую коробочку, устанавливаемую на пол, на одной из боковых граней которой находится излучатель. Сверху на устройстве можно увидеть совершенно чёткие указания, какой стороной его нужно ориентировать к ограждаемой территории, а какой к рабочей. Также на верхней стороне Electrowall имеется сдвижная кнопка включения и зелёный светодиодный индикатор, информирующий пользователя о работе. Питается устройство от пары батареек форм-фактора АА.
Зарядная станция новинки абсолютно ничем не отличается от аналогичных устройств всех остальных моделей уборщиков этого производителя. Она имеет очень простую конструкцию с большой горизонтальной площадкой, на которой размещены пружинные контакты для зарядки пылесоса. В верхней части есть индикатор питания, а снизу расположен разъём для подключения адаптера.
С пультом ДУ мы тоже знакомы. Его основная особенность – это наличие небольшого ЖК-дисплея, на котором отображается режим работы устройства, текущее время и время предстоящей уборки при программировании робота. Пульт имеет кольцо со стрелками управления и центральной кнопкой, а также шесть кнопок для активации различных режимов работы, поиска зарядной станции и установки таймера уборки. Работает пульт от двух батареек форм-фактора ААА.
Тестирование мы проводили в двух помещениях: в обычной однокомнатной квартире с полами, покрытыми ламинатом, кафельной плиткой и ковролином, а также в небольшом двухэтажном загородном доме с полами, покрытыми ламинатом. Условия уборки в последнем случае существенно сложнее: как с точки зрения того, что за городом на даче полы практически всегда грязнее, так и потому, что данный дом имеет лестницу между этажами, и роботу придётся задействовать свои датчики высоты, чтобы не упасть с неё.
Сборка, подключение и настройка робота не отнимут у пользователя много сил и времени. Большинству из вас даже не понадобится заглядывать в руководство пользователя, чтобы разобраться со всеми нюансами настройки и уборки. Управлять роботом одинаково удобно как при помощи пульта ДУ, так и со смартфона. Но первый всегда теряется, а второй почти постоянно рядом, поэтому мы предпочитаем его.
Мы тестировали приложение для работы с роботами ILIFE, устанавливаемое на смартфоны с ОС Android, но точно такое же приложение можно бесплатно скачать и установить из соответствующего интернет-сервиса для мобильных устройств с iOS. Оно имеет простой, не перегруженный деталями англоязычный интерфейс, оформленный в светлых тонах. Все операции, которые можно проводить с пульта ДУ, доступны через те или иные виртуальные органы управления фирменного приложения ILIFE Robot. В нём можно даже вызвать стрелочный блок для ручного управления пылесосом.
Здесь же можно запланировать расписание автоматической уборки, посмотреть состояние сменных компонентов, настроить расход жидкости при активации функции мойки пола, посмотреть историю уборки или сбросить настройки устройства до заводских. Если же вам просто требуется провести уборку помещения в автоматическом режиме, то для этого можно не брать в руки ни пульт ДУ, ни смартфон, а воспользоваться кнопкой [Пуск] с зелёной подсветкой на самом пылесосе. Всё остальное робот сделает без вашего участия, включая возвращение на зарядную станцию. Да ещё при этом и человеческим голосом проинформирует вас о начале или конце работы, а также об ошибках, если таковые возникнут в процессе. Жаль только, что эта функция пока доступна лишь на английском языке, да ещё и голос не слишком чёткий, отчего разобрать речь не всегда легко.
В автоматическом режиме работы ILIFE A9s не старается вначале объехать помещение по периметру, как это делают его собратья без встроенной камеры, а сразу приступает к делу, курсируя змейкой от стены до стены или очередного препятствия, составляя при этом план. В дальнейшем устройство будет придерживаться в работе составленного плана, нанося на него появляющиеся изменения. Уборка продолжается до тех пор, пока устройство не побывает на всех доступных для посещения участках, после чего оно автоматически возвращается на зарядную станцию.
Отметим, что никаких замечаний по поводу уборки у нас не возникло. Система подметания, состоящая из трёх щёток, просто великолепно зарекомендовала себя на других моделях роботов ILIFE, а используемая в данном случае система управления с функцией построения карты не вызывала нареканий и у модели ILIFE A8. Главное – это предварительно очистить комнату от мелких вещей, которые могут заблокировать работу пылесоса. К таким вещам можно отнести элементы одежды, игрушки, провода и всё то, что должно лежать в ящиках, а не на полу. В крайнем случае всегда можно огородить кусочек пола при помощи виртуальной стены из комплекта поставки. Тестирование показало, что робот останавливается достаточно точно перед излучателем, но уже в метре или двух от него угол излучения увеличивается, и робот не доходит до воображаемой стены десять, а иногда и все тридцать сантиметров, оставляя эти участки пола не убранными. А вот за стену устройство не проникло ни разу.
Подвеска ILIFE A9s позволяет ему с лёгкостью преодолевать препятствия высотой в один-два сантиметра. Даже если у робота не хватило сил, чтобы преодолеть преграду с первого раза, он немного отъезжает назад и пробует второй, а при необходимости и третий раз, если при этом датчики обнаружения за передним бампером не видят никаких других признаков высокого непреодолимого препятствия.
Режим локальной уборки в одном отдельно взятом месте нам показался немного изменённым по сравнению с аналогичным режимом других моделей ILIFE. В данном случае робот очищает площадь не внутри круга, а внутри небольшого квадрата — со стороной около полутора метров. Впрочем, достойное качество уборки от этого не изменилось.
Новинку можно упрекнуть в излишней шумности. Особенно сильно пылесос шумит при включении максимального режима работы насоса. Зато в этом случае он очень хорошо справляется даже с тяжёлым песком в ковровых покрытиях, что подтверждается содержимым контейнера для мусора после уборки.
Несмотря на наличие в контейнере для воды дополнительного отсека для мусора, мыть пол при помощи ILIFE A9s лучше уже после того, как его предварительно пропылесосили. В противном случае небольшая ёмкость для мусора в комбинированном контейнере забьётся очень быстро. Если же вы всё сделали правильно, то результат мойки вас наверняка порадует. Оставшиеся после первого прохода пылесоса отдельные соринки будут собраны в контейнер для мусора и не попадут на моющую салфетку.
В режиме мойки пола робот проходит помещение по тем же алгоритмам, что и в режиме подметания. Вибрация у платформы с салфеткой ощутимая, но довольно сложно сказать, насколько она помогает в оттирании пятен с пола. Субъективно – помогает. Объективно – не измеряли, но со свежими следами пищи и обуви ILIFE A9s справляется без особых проблем. Отдельно отметим, что робот не пропускает ни одного участка в комнате, благодаря тому, что по бокам платформа с салфеткой немного выступают за габариты корпуса.
Очистка самого пылесоса так же проста, как и у других моделей роботов ILIFE. Основной контейнер для мусора чистится и моется проточной водой. Исключение составляет только фильтр тонкой очистки, который можно лишь отряхнуть и обмести сухой щёткой. Со съёмных щёток наверняка придётся удалить намотавшиеся волосы и шерсть животных, если таковые имеются у вас.
Что касается второго комбинированного контейнера, то и его очистить очень легко, но нужно быть аккуратным, чтобы не вытряхнуть накопившийся мусор из соответствующего отделения. Шторки, как у основного контейнера, в данном случае нет. Производитель запрещает опускать его под воду, но под тонкой струёй из крана мы его всё-таки мыли. Проблем с герметичностью обнаружено не было.
В целом впечатления от работы робота-пылесоса ILIFE A9s остались просто великолепные. Из всех протестированных нами моделей уборщиков ILIFE этот пылесос действительно производит впечатление самого умного и высокотехнологичного. При этом и со своими задачами он справляется так же хорошо, как выглядит.
После выхода ILIFE A9s у сторонников продукции этой марки может появиться только один вопрос: что делать со своим нормально работающим, но уже морально устаревшим роботом-уборщиком? Ну если он, конечно, есть. Если его нет, то тут всё просто – стоит пристально присмотреться к рассмотренной сегодня новинке. Если же другая модель у вас всё-таки есть, то тут уже решать придётся каждому самостоятельно: нужен ли вам режим вибромойки, управление со смартфона или функция возведения виртуальной стены.
Если говорить о преимуществах и недостатках новинки, то среди первых нужно отметить следующие:
Из недостатков можно отметить разве что ощутимый шум, но он с лихвой компенсируется очень высоким качеством уборки. Ну а учитывая относительно невысокую стоимость робота ILIFE A9s, его можно смело рекомендовать к покупке всем, кто хотел бы видеть свой дом чистым каждый день. Как и другие модели ILIFE, новинку можно приобрести в официальном магазине компании на интернет-площадке AliExpress. |
985,463 | Обзор смартфона Huawei P30 Pro: новый король мобильной фотографии | Будни Huawei проходят примерно как у барона Мюнхгаузена из пьесы Горина: подъем, завтрак, переворот в мобильной фотографии. Сначала был P9, запустивший волну двухкамерных смартфонов, затем передышка на P10 — и новый рывок на P20 Pro, предложивший сразу и трехкамерную схему, и невиданное раньше качество съемки в темноте, и трехкратный оптический зум. В Mate 20 Pro компания пожертвовала съемкой в темноте ради широкоугольной съемки, а в P30 Pro уже не стала ничем жертвовать, предложив вместо монохромного сенсора новую систему Super Spectrum и сдобрив это уже пятикратным оптическим зумом. К реализации есть определенные вопросы, мы их разберем в разделе, посвященном камере, но в целом новый смартфон в плане фото и видео снова смотрится не просто мощно, а на шаг впереди всех.
В остальном Huawei P30 Pro – вполне ожидаемый флагман 2019 года. Скукоженная до «капельки» челка, изогнутый OLED-дисплей на шесть с половиной дюймов, стеклянный корпус с градиентным окрасом (еще один тренд, который задала Huawei), собственная платформа Kirin 980, влагозащита IP68 и отсутствующий мини-джек. Все на уровне, но очевидно, что акценты расставлены именно на слове «камера».
Вместе с Pro-версией, которая на старте продаж стоит 70 тысяч рублей, вышел Huawei P30 – причем он не так сильно отстает по характеристикам от «про», как это было в случае P20. В нем тоже камера SuperSensing, только в компании с трехкратным зумом, тоже OLED-дисплей, только 6,1-дюймовый и не изогнутый, нет влагозащиты, зато есть мини-джек; поменьше оперативки, но тот же самый Kirin 980. Более чем боеспособный гаджет ценой уже в 50 тысяч рублей – и есть подозрения, что именно он станет хитом продаж, но поговорим мы сегодня все-таки о его старшем брате.
|
Huawei P30 Pro |
Huawei Mate 20 Pro |
Samsung Galaxy S10+ |
Apple iPhone Xs Max |
Google Pixel 3 XL
|
Дисплей |6,47 дюйма, OLED,
2340 × 1080 точек, 398 ppi, емкостный мультитач
|6,39 дюйма, OLED,
3120 × 1440 точек, 538 ppi, емкостный мультитач
|6,4 дюйма, Super AMOLED, 1440 × 3040, 522 ppi, емкостный мультитач
|6,5 дюйма, Super AMOLED, 2688 × 1242, 458 ppi, емкостный мультитач, технология TrueTone
|6,3 дюйма, P-OLED, 2960 × 1440 точек, 523 ppi, емкостный мультитач
|
Защитное стекло |Нет информации
|Corning Gorilla Glass (версия неизвестна)
|Corning Gorilla Glass 6
|Нет информации
|Corning Gorilla Glass 5
|
Процессор |HiSilicon Kirin 980: восемь ядер (2 × ARM Cortex A76, частота 2,6 ГГц + 2 × ARM Cortex A76, частота 1,92 ГГц + 4 × ARM Cortex A55, частота 1,8 ГГц); архитектура HiAI
|HiSilicon Kirin 980: восемь ядер (2 × ARM Cortex A76, частота 2,6 ГГц + 2 × ARM Cortex A76, частота 1,92 ГГц + 4 × ARM Cortex A55, частота 1,8 ГГц); архитектура HiAI
|Samsung Exynos 9820 Octa: восемь ядер (2 × Mongoose M4, частота 2,73 ГГц + 2 × Cortex-A75, частота 2,31 ГГц + 4 × Cortex-A55, частота 1,95 ГГц)
|Apple A12 Bionic: шесть ядер (2 × Vortex + 4 × Tempest)
|Qualcomm Snapdragon 845: четыре ядра Kryo 385 Gold, частота 2,8 ГГц + четыре ядра Kryo 385 Silver, частота 1,7 ГГц
|
Графический контроллер |ARM Mali-G76 MP10, 720 МГц
|ARM Mali-G76 MP10, 720 МГц
|Mali-G76 MP12
|Apple GPU (4 ядра)
|Adreno 630, 710 МГц
|
Оперативная память |8 Гбайт
|6 Гбайт
|8/12 Гбайт
|4 Гбайт
|4 Гбайт
|
Флеш-память |128/256/512 Гбайт
|128 Гбайт
|128/512/1024 Гбайт
|64/256/512 Гбайт
|64/128 Гбайт
|
Поддержка карт памяти |Да (только Huawei nanoSD)
|Да (только Huawei nanoSD)
|Есть
|Нет
|Нет
|
Разъемы |USB Type-C
|USB Type-C
|USB Type-C, миниджек 3,5 мм
|Lightning
|USB Type-C
|
SIM-карты |Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Одна nano-SIM и одна e-SIM
|Одна nano-SIM
|
Сотовая связь 2G |GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
|GSM 850 / 900 / 1800 / 1900 МГц
|
Сотовая связь 3G |HSDPA 800 / 850 / 900 / 1700 / 1900 / 2100 МГц
|HSDPA 800 / 850 / 900 / 1700 / 1900 / 2100 МГц
|HSDPA 850 / 900 / 1700 / 1900 / 2100 МГц
|HSDPA 850 / 900 / 1700 / 1900 /2 100 МГц
|HSDPA 850 / 900 / 1700 / 1900 / 2100 МГц CDMA 2000
|
Сотовая связь 4G |LTE Cat. 21 (до 1400 Мбит/с), диапазоны 1, 2, 3, 4, 5, 6, 7, 8, 9, 12, 17, 18, 19, 20, 26, 28, 34, 38, 39, 40
|LTE Cat. 21 (до 1400 Мбит/с), диапазоны 1, 2, 3, 4, 5, 6, 7, 8, 9, 12, 17, 18, 19, 20, 26, 28, 34, 38, 39, 40
|LTE Cat. 20 (2000/150 Мбит/с), диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 13, 17, 18, 19, 20, 25, 26, 28, 32, 38, 39, 40, 41, 66
|LTE Cat. 16 (1024 Мбит/с): диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 13, 14, 17, 18, 19, 20, 25, 26, 29, 30, 32, 34, 38, 39, 40, 41, 66, 71
|LTE Cat. 16 (1024 Мбит/с): 1, 2, 3, 4, 5, 7, 8, 12, 13, 17, 18, 19, 20, 25, 26, 28, 29, 32, 38, 39, 40, 41, 42, 46, 66, 71
|
Wi-Fi |802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac/ax
|802.11a/b/g/n/aс
|802.11a/b/g/n/ac
|
Bluetooth |5.0
|5.0
|5.0
|5.0
|5.0
|
NFC |Есть
|Есть
|Есть
|Есть (Apple Pay)
|Есть
|
Навигация |GPS (двухдиапазонный), A-GPS, ГЛОНАСС, BeiDou, Galileo, QZSS
|GPS (двухдиапазонный), A-GPS, ГЛОНАСС, BeiDou, Galileo, QZSS
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, Galileo, QZSS
|GPS, A-GPS, ГЛОНАСС, Galileo
|
Датчики |Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), ИК-датчик
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), ИК-датчик, Face ID
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), барометр, датчик сердечного ритма, давления
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), барометр
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), барометр
|
Сканер отпечатков пальцев |Есть, на экране
|Есть, на экране
|Есть, на экране
|Нет
|Есть
|
Основная камера |Четверной модуль, 40 + 20 + 8 Мп (перископическая) + TOF, ƒ/1,6 + ƒ/2,2 + ƒ/3,4, фазовый автофокус, оптическая стабилизация, двойная светодиодная вспышка
|Тройной модуль, 40 + 20 + 8 Мп, ƒ/1,8 + ƒ/2,2 + ƒ/2,4, гибридный автофокус, оптическая стабилизация, двойная светодиодная вспышка
|Тройной модуль: 12 Мп с переменной диафрагмой ƒ/1,5/2,4 + 12 Мп, ƒ/2,4 + 16 Мп, ƒ/2,2, фазовый автофокус, оптическая стабилизация в основном и телемодулях, светодиодная вспышка
|Двойной модуль: 12 Мп, ƒ/1,8 + 12 Мп, ƒ/2,4, автофокус, четырехдиодная светодиодная вспышка, оптический стабилизатор в обеих камерах
|12,2 Мп, ƒ/1,8, фазовый автофокус, двойная светодиодная вспышка, оптическая стабилизация
|
Фронтальная камера |32 Мп, ƒ/2,0, фиксированный фокус, без вспышки
|24 Мп, ƒ/2,0, фиксированный фокус, без вспышки
|Двойной модуль: 10 + 8 Мп, ƒ/1,9 + ƒ/2,2, автофокус с основной камерой
|7 Мп, ƒ/2,2, без автофокуса, без вспышки
|Двойной модуль: 8 + 8 Мп, ƒ/1,8 + ƒ/2,2, автофокус с основной камерой
|
Питание |Несъемный аккумулятор: 15,96 Вт·ч (4200 мА·ч, 3,8 В)
|Несъемный аккумулятор: 15,96 Вт·ч (4200 мА·ч, 3,8 В)
|Несъемный аккумулятор: 15,58 Вт·ч (4100 мА·ч, 3,8 В)
|Несъемный аккумулятор: 12,06 Вт⋅ч (3174 мА·ч, 3,8 В)
|Несъемный аккумулятор на 13,03 Вт·ч (3430 мА·ч, 3,8 В)
|
Размер |158 × 73,4 × 8,4 мм
|157,8 × 72,3 × 8,6 мм
|157,6 × 74,1 × 7,8 мм
|157,5 × 77,4 × 7,7 мм
|158 × 76,7 × 7,9 мм
|
Масса |192 грамма
|189 граммов
|175 граммов
|208 граммов
|184 грамма
|
Защита корпуса |IP68
|IP68
|IP68
|IP68
|IP68
|
Операционная система |Android 9.0 Pie, оболочка EMUI
|Android 9.0 Pie, оболочка EMUI
|Android 9.0 Pie, собственная оболочка
|iOS 12
|Android 9.0 Pie
|
Актуальная цена |69 990 рублей за версию с 256 Гбайт памяти
|59 990 рублей
|76 990 рублей за версию 8/128 Гбайт, 124 990 рублей за версию 12/1024 Гбайт
|от 85 200 рублей до 106 990 рублей
|65 490 рублей за версию на 64 Гбайт памяти, 73 490 рублей за версию на 128 Гбайт
**Дизайн, эргономичность и программное обеспечение**
В своих первых впечатлениях о P30 и P30 Pro я уже отмечал, что смартфоны очень напоминают внешне серию Samsung Galaxy S10. Только речи ни о каких заимствованиях не идет, скорее – об одинаковом направлении мысли дизайнеров. Скругления по углам стали скромнее, изогнутые лицевая и тыльная панели продиктовали форму и сужение в районе граней, добавляем к этому хромированные ребра и торцы – и начинаем искать различия. Это тоже несложно – фронтальная камера здесь спрятана в миниатюрный вырез, а не в угол экрана, блок тыльных камер ориентирован вертикально, а не горизонтально, по-другому расположены аппаратные клавиши. Не могу сказать определенно, у кого получилось красивее и лучше, но Huawei в этом году уже нельзя упрекнуть в отсутствии вкуса, что вполне можно было делать в случае с P20 Pro и его гигантским вырезом.
Смартфон прикрыт закаленным стеклом спереди и сзади, причем производитель не уточняет марку стекла – пятая ли это «горилла», шестая или или стекло и вовсе закупается у какого-то другого производителя. Стеклянная спинка ожидаемо быстро заляпывается и очень охотно скользит – смартфон лучше немедленно после покупки упаковать в чехол, хотя бы комплектный, благо он здесь прозрачный и не прячет цвет устройства.
А похвастать здесь Huawei P30 Pro есть чем. В России он представлен в двух цветах, светло-голубом и цвете «северное сияние». Именно светло-голубой P30 Pro достался нам на тест – и на мой взгляд, смотрится он со своими переливами от лавандового к голубому очень эффектно. «Северное сияние» – это темный, сине-зеленый вариант, вероятно, чуть более «мужественный», хотя определять гендерную принадлежность тут бесполезно. В природе также существуют белый, черный и бронзово-красный P30/P30 Pro, но в Россию они официально не поставляются. Немного странно — при нашей-то любви ко всему черному и неброскому, зато смело и свежо.
Huawei P30 Pro – гаджет крупный, он почти не отличается по габаритам от Mate 20 Pro. Времена разделения на «большой бизнес-смартфон» и «флагман попроще» уже прошли, у Huawei есть теперь просто весенний и осенний флагманы. Пользоваться смартфоном одной рукой без активации специального режима с уменьшением рабочего стола невозможно, но это уже более чем привычная ситуация. В целом никаких новых навыков для работы с P30 Pro не нужно – это обычный современный телефон, от которого требуется просто помещаться в карман и предлагать побольше информации на своем экране.
Рамки вокруг 6,47-дюймового дисплея почти отсутствуют, а вырез уже почти символический – в нем расположена одинокая фронтальная камера. Датчики, помогающие с распознаванием лица, в Huawei P30 Pro не поместились, так что вся надежда при идентификации пользователя на встроенный в экран ультразвуковой сканер отпечатков пальцев.
Еще одна постепенно распространяющаяся мода на специальную кнопку для запуска Google Assistant до P30 Pro не дошла – у него две привычные аппаратные клавиши, одна из которых отвечает за регулировку громкости, а другая – за включение.
Мини-джека, как я уже отмечал выше, тут нет, равно как нет стереофонических динамиков – разговорный динамик вообще заменен пьезоэлементом, спрятанным под дисплеем. Звук при разговоре издает, по сути, сам экран. Это ограничивает мультимедийные возможности P30 Pro, зато придает какого-то футуристического шика.
Сканер отпечатков тоже спрятан под дисплей – сегодня ультразвуковые сканеры научились делать уже почти все. Первый блин на осеннем Mate 20 Pro получился комом, сканер в нем работал, мягко говоря, посредственно – очень медленно и с большим процентом брака. Huawei провела работу над ошибками – в P30 Pro ситуация заметно улучшилась. На срабатывание сенсора уходит менее секунды, качество его работы приблизилось к тому, что мы привыкли получать от емкостных сенсоров. Да, приблизилось, а не догнало, но по крайней мере всерьез этот сканер уже не раздражает. К нему можно добавить вполне рабочее распознавание лица, но в нем фронтальной камере никто не помогает, обмануть ее можно и с помощью фотографии.
В Huawei P30 Pro установлен OLED-дисплей диагональю 6,47 дюйма и разрешением 2340 × 1080 точек (плотность – 398 пикселей на дюйм; формат – 19,5:9). Где-то надо было сохранить особый статус «мейта» – это сделано в отношении дисплея. Там, напомню, стоит матрица с 2К-разрешением. При этом выбраны другие поставщики. Какие конкретно, не говорят, но как минимум от услуг LG китайцы в этот раз отказались – проблемы с браком в Mate 20 Pro не прошли незамеченными. В какой-то громкий скандал они не перетекли, просто привели к логичному бизнес-решению.
Некоторый недостаток разрешения относительно прямых конкурентов (кроме iPhone, конечно) будет заметен только при просмотре видео максимального качества – диагональ в шесть с половиной дюймов уже позволяет видеть разницу. В остальном – только плюсы, связанные с лучшей автономностью смартфона. Поддерживается отображение информации на выключенном экране в режиме ожидания – так называемый Always-On Display. Он не активирован по умолчанию, его надо включить в настройках. А вот автонастройку цветового тона, доступную в Mate 20 Pro, я здесь не нашел – аналог True Tone тут отсутствует.
Измеренный предельный уровень яркости без программного повышения при автоподстройке составляет 444 кд/м
2. Это хороший уровень для OLED-дисплея – на смартфон вполне можно рассчитывать и на улице в солнечный день, когда яркость принудительно еще немного повышается. Заявлено, что экран P30 Pro соответствует мобильному стандарту HDR10, при котором пиковая яркость должна достигать 600 кд/м 2. С контрастностью у AMOLED-матрицы нет проблем по умолчанию.
Также можно самостоятельно менять цветовую температуру и цветопередачу – как вручную, так и выбрав в настройках «яркий» или «обычный» режим работы дисплея.
По умолчанию в P30 Pro выставлен «яркий» режим цветопередачи. В нем мы получаем расширенное цветовое пространство, лишь чуть уступающее по охвату DCI-P3. Среднее значение гаммы составляет 2,41, что довольно далеко от нормы – кривые стремятся к экстремальным значениям в светлых тонах. Цветовая температура завышена (7 500 – 8 000 К), среднее отклонение DeltaE по по расширенной палитре Color Checker (оттенки серого + широкий набор цветовых оттенков) составляет 4,31 – для работы с расширенным цветовым диапазоном показатель очень неплохой, цвета не укладываются в эталонные значения, но не далеко уходят от реальности. Картинка холодная, яркая, насыщенная.
При включении стандартного режима цветопередачи цветовое пространство начинает практически соответствовать стандарту sRGB, картинка очень заметно теплеет. Гамма стабилизируется, но все еще завышена – 2,35 при не столь лихорадочном поведении кривых. Цветовая температура близка к идеалу – колеблется около уровня 6 500 К. Среднее отклонение DeltaE по шкале Color Checker составляет 2,77, что укладывается в границы нормы (3,00). Дисплей Huawei P30 Pro настроен хорошо.
Про аудиоспособности Huawei P30 Pro я уже сказал пару слов выше – на наушники звук идет или без проводов (есть поддержка профилей aptX и aptX HD), или через переходник, которого, к слову, нет в комплекте. Мощность выходного канала достаточна, чтобы не переживать за слышимость даже в общественном транспорте и не было «зажимов» на максимальной громкости. Детализация и глубина звучания средние, звук частотно сбалансирован.
Внешний динамик монофонический, расположен справа от порта USB Type-C и выдает громкий, но непритязательный звук.
**«Железо» и производительность**
Huawei P30 Pro базируется на флагманской платформе компании – HiSilicon Kirin 980. Мы уже несколько раз о ней рассказывали и тестировали ее на нескольких смартфонах (Huawei Mate 20 Pro, Honor Magic2, Honor View 20), но для порядка все-таки пару слов об этой системе-на-чипе напишем и здесь. Она состоит из восьми ядер: два ARM Cortex-A76 с тактовой частотой 2,6 ГГц + два ARM Cortex-A76 с тактовой частотой 1,92 ГГц + четыре ARM Cortex-A55 с тактовой частотой 1,8 ГГц. Техпроцесс – 7 нм.
Графический чип – ARM Mali-G76 тактовой частотой 720 МГц. По общей производительности Kirin 980 вполне конкурентоспособна, но по графической платформа уступает всем актуальным конкурентам: и Qualcomm Snapdragon 855, и Samsung Exynos 9820 Octa, и Apple A12 Bionic. Рядовой пользователь это отставание едва ли почувствует – запускаются игры очень быстро и работают при максимальных графических настройках на хорошей кадровой частоте, тем более что здесь предельное доступное разрешение – Full HD, а не 2К или 4К (вероятно, кстати, что невеликие возможности платформы в графическом плане и привели к выбору такого разрешения для экрана). Но запаса, к которому мы привыкли, покупая смартфоны с самой мощной платформой Qualcomm или Apple, здесь не будет, пусть в настоящий момент производительность Kirin 980 и выглядит даже слегка избыточной.
Зато запас есть по объему оперативной памяти. В P30 Pro это 8 Гбайт LPDDR4X — Huawei не пожадничала. Аппаратных ограничений к тому, что бы этот смартфон оставался актуальным еще минимум два-три года нет, все вопросы теперь к частоте программных обновлений.
Гордость инженеров Huawei – отдельный чип, отвечающий за работу с нейросетевыми вычислениями, HiAI. Он обеспечивает очень высокую скорость работы со всем, что касается мобильного искусственного интеллекта. В первую очередь сегодня это различные улучшения работы камеры — тут у китайской компании, конечно, передовые позиции. В теории смартфоны на Snapdragon 855, например Xiaomi Mi 9, превосходят гаджеты Huawei по результатам бенчмарков (у «девятки» в AI Mark – 47 484 балла), но в настоящий момент это именно что «попугаи», на реальной скорости работы устройства эти цифры не сказываются.
У Huawei P30 Pro очень неплохо дело обстоит и с охлаждением процессора, с которым были проблемы у всех протестированных до этого момента гаджетов на Kirin 980. Вероятно, имела место какая-то программная ошибка прошивки, слишком резко и безосновательно понижавшая частоту процессора, но теперь ситуация заметно улучшилась. При 15-минутном сеансе CPU Throttling Test платформа в основном работала на 85-90 % от максимальной частоты с несколькими провалами, которые и обеспечили конечный результат – 73 %. Средняя производительность составила 161 GIPS. Для сравнения: у Mate 20 Pro были 61 % и 132 GIPS. Ситуация, в общем, выправляется, хотя пока еще не идеальна.
В Huawei P30 Pro встроен накопитель емкостью 256 Гбайт – это адекватный объем для флагманского смартфона образца 2019 года, его должно хватить надолго. При необходимости можно купить карту памяти nanoSD (которые пока что выпускает исключительно Huawei) и установить на место второй симки. Также существуют версии P30 Pro с накопителями на 128 и 512 Гбайт, но они в Россию официально не поставляются.
⇡#
**Связь и беспроводные коммуникации**
Слот для операторских карточек в Huawei P30 Pro рассчитан на две nano-SIM. Обе будут работать с LTE на очень высокой скорости. На официальном российском сайте указано, что поддерживается LTE 13-й категории, но это ошибка – по факту аппарат поддерживает LTE Cat.21, что дает теоретическую скорость скачивания данных до 1,4 Гбит/с и скорость отправки данных 200 Мбит/с. Можно и перетерпеть, пока не придет 5G. Все необходимые для корректной работы 4G в России диапазоны в списке поддерживаемых есть. Субъективно Huawei P30 Pro работает с сетями очень шустро — модем быстрый, а антенны мощные, вылавливают сигнал даже там, где иные смартфоны могут и спасовать.
Беспроводные модули тоже в порядке: Wi-Fi 802.11a/b/g/n/ac, Bluetooth 5.0, NFC, ИК-порт. Не хватает, пожалуй, только диапазона Wi-Fi 802.11aх. В целом мне, к слову, не очень понравилось, как смартфон работает с Wi-Fi-сетями, в отличие от LTE, – слабый сигнал улавливается не всегда. Но если у вас все в порядке, а у кого-то рядом – нет, то с помощью P30 Pro можно устроить Wi-Fi-мост и раздавать сигнал. Связь со спутниками GPS ведется одновременно по двум каналам, что дает заметный выигрыш в точности соединения, ну а со скоростью налаживания связи так и так не было никаких проблем. Заметить влияние новой технологии можно при постройке треков по итогам пробежки.
Наверное, мир перевернется, когда Huawei перестанет на смартфонах P-серии как-то сдвигать наши представления о том, что могут делать камеры мобильных телефонов. Впрочем, начала это делать компания не так уж давно – и в этом мире все меняется. Но уж больно стабильно происходят эти мини-революции. В этот раз случилась сразу двойная: вместе с невиданным доселе зумом (оптический пятикратный) в смартфоне дебютировал новый тип сенсора – со свежим цветовым фильтром. Обо всем по порядку.
Huawei P30 Pro получил сразу четыре тыльных камеры. Количество в данном случае как раз наименее интересно – четвертой стала миниатюрная (спряталась под вспышкой) TOF-камера. Подобные решения встречаются все чаще – за счет этих датчиков глубины смартфоны учатся лучше разделять объект и фон, а также измерять объекты и применять различные маски виртуальной реальности. Но гораздо интереснее здесь, конечно, основной модуль, который состоит из трех камер.
Главная камера основана на свежем 40-мегапиксельном сенсоре Sony физического размера 1/1,7’’, выполненном по системе Quad Bayer. Это означает, что по умолчанию он снимает с разрешением 10 мегапикселей, и света на кластеры из четырех фотодиодов попадает примерно как на пиксели в 10-мегапиксельной крупной матрице. К этому добавляется совершенно новая технология SuperSensing. Суть ее предельно проста – вместо привычных цветовых фильтров RGGB здесь применены фильтры RYYB, зеленые субпиксели заменены желтыми, которые позволяют принимать на 40 % больше света, чем зеленые. В теории это повышает возможности сенсора по съемке при недостаточном освещении, но на практике необходима внимательная программная обработка, чтобы не допустить цветовых искажений. И Huawei справилась с этой задачей.
Смартфон снимает в темноте как минимум на уровне Huawei P20 Pro – и заметно опережает в этом плане Mate 20 Pro. Даже без активации режима многокадровой экспозиции получить резкий и четкий снимок ночью вообще не составляет труда. Добавляет эффекта, конечно, и объектив со светосилой
*ƒ*/1,6 (фокусное расстояние – 27 мм), и оптический стабилизатор, работающий как с главной, так и с телефото-камерой. P30 Pro уверенно забирает корону лучшего смартфона по съемке в темноте, при этом никакого ущерба для цветопередачи я не заметил. Также нет проблем и с динамическим диапазоном — принудительно активировать HDR в большинстве ситуаций просто не нужно.
Предельная светочувствительность, с которой может снимать смартфон, составляет ISO 409 600. Ее можно назвать, конечно, «шоу-чувствительностью», которая здесь нужна для красного словца, но и тут не так все просто, Huawei P30 Pro реально может работать своеобразным аналогом прибора ночного видения – смартфон способен «разглядеть» картинку даже там, где вы не видите ее собственными глазами. Качество съемки не запредельное, но «мозги» аппарата могут дотянуть изображение до более-менее приемлемого уровня. Это правда очень впечатляет.
Не менее впечатляет и телефотомодуль, который обеспечивает 5-кратный оптический зум или 10-кратный гибридный зум (потери качества — минимальные). Для этого модуля используется 8-мегапиксельный сенсор размерами 1/4’’ (размер пикселя сохранен приемлемым – 1,22 мкм) с перископическим объективом, который расположен
*поперек *корпуса. Свет поступает на сенсор через призму и пять оптических элементов, зеркало в этой линзе не применяется. Светосила совсем не впечатляющая, *ƒ*/3,4, но мы говорим об объективе с фокусным расстоянием 125 мм без выдвижных частей *в смартфоне. *И он выдает вполне приличную картинку. Днем – так вообще хорошую. Ночью – чудес, конечно, не бывает: сочетание невысокой светосилы и небольшой матрицы не может не дать о себе знать, но стабилизатор и правда эффективен, как минимум снять несмазанную картинку вполне возможно. Причем как с пятикратным, так и с десятикратным (250 мм!) зумом.
Добавлю, что цифровой зум в итоге доступен вплоть до 50-кратного! Да, изображение уже откровенно страдает, но что-то разглядеть можно – вау-эффект достигается.
В этом месте у меня возникла, правда, претензия к Huawei. В погоне за сводящими с ума цифрами компания, кажется, немного подзабыла о пользователе, которому в большинстве случаев требуется не такой зум, а в 2-3 раза меньший – для съемки портретов и уличных сценок. При этом весь диапазон между 27 мм и 125 мм остается на откуп цифровому зуму. Это и правда минус. Плюс в том, что работает этот цифровой (хотя скорее опять, как и в случае 10-кратного увеличения, гибридный) зум очень прилично, на уровне Google Pixel 3. Причем до 3-кратного увеличения телефото-модуль вообще не используется, а для 3-5-кратного увеличения картинки с телефото- и широкоугольного модуля объединяются. В принципе, претензия снимается, но хотелось бы, чтобы 2-3-кратный зум был доступен в экранном меню, хотя бы как у того же «пикселя», – каждый раз сводить-разводить пальцы не очень удобно.
Сверхширокоугольная камера сохранена та же, что и в Mate 20 Pro: 20 мегапикселей, 1/2,7’’, оптика светосилой
*ƒ*/2,2 и эквивалентным фокусным расстоянием 16 мм. С ей работает автофокус (в отличие от большинства конкурентов), а минимальная дистанция фокусировки составляет 2,5 см от объекта съемки. Пока что смартфоны Huawei выигрывают у всех и по качеству макросъемки тоже.
Само собой, камера забрендирована Leica, но на это уже давно никто не делает упора – очевидно, что влияние великой немецкой компании на камеру смартфона ограничивается фирменными шрифтами и тремя неизменными «пленочными» фильтрами. Надо признать, что Huawei прекрасно справляется и сама. Отмечу, что, несмотря на отсутствие черно-белого сенсора, в P30 Pro сохранен режим монохромной съемки – и кадры в нем выглядят очень породисто.
Автофокус в P30 Pro не гибридный, а исключительно фазовый, но это никак не повлияло на его эффективность – разве что в положительном ключе. Фокусировка работает цепко, быстро и стабильно в любых условиях освещения. Искусственный интеллект никуда из камеры Huawei P30 Pro не исчез – его в любой момент можно выключить, дотронувшись до иконки в верхнем ряду, и порой это хочется сделать – все-таки с улучшением картинки «мозги» смартфона порой перебарщивают.
Интерфейс приложения камеры не изменился – вызов разных режимов осуществляется горизонтальным смахиванием экрана, есть профессиональный режим с возможность ввода настроек самостоятельно. При желании можно снимать в формате RAW. Режим HDR не активирован по умолчанию, его надо включать отдельно. Из новых режимов отмечу специальный для подводной съемки – существует специальный кейс для P30 Pro, который позволяет делать это на хорошем уровне.
Портретный режим работает очень хорошо. Смартфон здорово разделяет планы, причем как при съемке крупным форматом, так и при ростовых портретах, и умеет «рисовать» разнообразное боке: в виде кружков, сердечек и так далее. Есть и изощренные световые эффекты вроде симуляции римских штор или витража на заднем плане (с соответствующими отблесками на лице). Эти же эффекты можно применять и при съемке на селфи-камеру. Есть и настраиваемый бьютификатор, но на всю фигуру, как в Honor View 20, он не распространяется. Кто знает, может, опция будет добавлена в будущих прошивках.
В целом по качеству съемки Huawei P30 Pro задает новую планку для всей индустрии мобильной фотографии. А поскольку даже Huawei P20 Pro/Mate 20 Pro конкуренты пока так и не превзошли, новый рубеж впечатляет еще сильнее. Претензии можно предъявить разве что к не всегда естественному тонированию, причем как на общих планах, так и на портретах (тон кожи надо дотягивать при обработке), и изредка встречающимся ошибкам при дотягивании контурной резкости. По возможностям, качеству съемки в темноте и предоставляемой фотографу свободе равных Huawei P30 Pro на сегодняшний день нет.
В видеосъемке P30 Pro проявляет себя скромнее. Он умеет снимать видео с разрешением до 3840 × 2160 и частотой только до 30 кадров в секунду. Говорят, что в будущих прошивках добавится режим 4K/60p, но пока его нет. Стабилизация доступна при съемке с разрешением до 1920 × 1080 с и частотой 60 кадров в секунду, есть замедленное видео (частота – 960 кадров в секунду) с разрешением 1280 × 720. «Плавающий затвор» (rolling shutter) при съемке в 4K и подергивание картинки никуда не исчезли – в видеосъемке аппараты Huawei пока уступают и iPhone, и Samsung, и Sony. Опробованные в Mate 20 Pro фильтры, делающие картинку более «киношной», программное размытие фона и выделение цвета при общей монохромной сцене – на месте. Из нового – возможность снимать одновременно на широкий угол и с применением зума, две картинки выводятся на экран одновременно, бок-о-бок. Стоит сказать и о том, что зум доступен прямо во время съемки — можно переключаться между фокусными расстояниями «на лету».
Фронтальная камера тоже обновлена – в P30 Pro применяется 32-мегапиксельный сенсор с объективом светосилой
*ƒ*/2,0, без автофокуса и вспышки. Картинка получается качественная при разном освещении, но проблема этой камеры – в неидеально выбранной точке фокусировки (порой приходится слишком долго искать правильную дистанцию) и слишком широком угле обзора – искажения черт лица, на мой взгляд, получаются слишком серьезными. Про возможность размытия фона, бьютификатор и различные фильтры я уже сказал выше.
В Huawei P30 Pro установлен аккумулятор емкостью 15,96 Вт·ч (4200 мА·ч, 3,8 В). Все как у Mate 20 Pro, причем слегка увеличенный дисплей никак не сказывается на автономности. Невысокое разрешение, хорошая энергоэффективность что платформы, что операционной системы с оболочкой – и уверенные сутки работы на одном заряде при активном использовании устройства (с перерывом на сон, конечно) обеспечены. В случае с P30 Pro можно даже забыть поставить его на зарядку на ночь – и не сильно расстроиться с утра: заряда хватит, чтобы дотянуть до работы и «воткнуться» уже там. Можно активировать функцию Always-On Display – она почти никак не скажется на времени работы смартфона.
В нашем традиционном тесте с воспроизведением HD-видео, на максимальной яркости, с включенным Wi-Fi и автообновлением, смартфон продержался пятнадцать с половиной часов – чуть больше, чем Mate 20 Pro, и в полтора раза больше, чем P20 Pro. Результат прекрасный.
Для зарядки используется актуальный порт USB Type-C (USB 3.1), работает фирменная система быстрой зарядки Huawei Super Charge с 40-ваттным зарядным устройством, идущим в комплекте. Оно позволяет за полчаса зарядить смартфон на 70 % и за час – полностью. Поддерживается 15-ваттная беспроводная зарядка, а также P30 Pro умеет раздавать заряд без проводов самостоятельно, на манер Mate 20 Pro. Поскольку различных наушников, которые с большим интересом смотрят на эту опцию, становится все больше, функция уже не выглядит малополезной.
Это все еще выглядит странно, хотя можно было бы и привыкнуть за несколько лет – Huawei непрерывно лидирует по качеству мобильной съемки, и не только не сбавляет оборотов, но и наращивает преимущество. P30 Pro задает новую планку для конкурентов, причем это касается не только сочетания широкоугольной камеры и рабочего пятикратного оптического зума, но и просто качества съемки. Huawei лидирует в ночной фотографии и демонстрирует завидный динамический диапазон. Снова заслуженная корона.
Но не съемкой единой славен новый флагман Huawei. Здесь есть и качественный, хорошо настроенный OLED-дисплей, достойные аппаратные характеристики (хотя по работе с 3D-графикой он уступает конкурентам), прекрасная автономность при наличии очень быстрой как проводной, так и беспроводной зарядки, ну и несколько приятных технологических бонусов вроде встроенных прямо в экран как сканера отпечатков и разговорного динамика. Это действительно полновесный претендент на звание «смартфона года», мощный конкурент для любого как уже вышедшего, так и грядущего флагмана. Не смартфон — реакция на тренды, а смартфон, на который конкурентам теперь самим придется реагировать.
**Достоинства** **Недостатки** |
985,472 | Gamesblender № 407: нордическая Assassin’s Creed, скорая TLoU II и внезапная стратегия от Ромеро | Оригинал материала:
https://3dnews.ru/985472
Gamesblender № 407: нордическая Assassin’s Creed, скорая TLoU II и внезапная стратегия от Ромеро
В сегодняшнем выпуске: подробности Borderlands 3; Epic Games спорит сама с собой; кино по мотивам... Hyper Light Drifter. А также другие новости и события игровой индустрии
07 апреля 2019
3DNews Team
Оригинал материала:
https://3dnews.ru/985472
© 1997-2024 3DNews | Daily Digital Digest | Лицензия Минпечати Эл ФС 77-22224
При цитировании документа ссылка на сайт с указанием автора обязательна. Полное заимствование документа является нарушением российского и международного законодательства и возможно только с согласия редакции 3DNews. |
985,490 | Сравнительный тест камер флагманских смартфонов: Apple iPhone Xs Max, Google Pixel 3 XL, Huawei Mate 20 Pro, Samsung Galaxy S10+ и Xiaomi Mi 9 | В эпоху, когда есть DxO Mark, расставляющий все камеры и смартфоны в определенном порядке, идея делать сравнительные тесты самостоятельно выглядит немного излишней. С другой стороны, а почему бы и нет? Тем более что у нас в один момент оказались на руках все современные флагманские смартфоны – и мы столкнули их лбами.
Одно но – уже в процессе подготовки этого материала вышел Huawei P30 Pro, который просто не успел вписаться в эти разборки, так что мы вынуждены вынести потенциального победителя соревнования за скобки. Его место занял осенний флагман Huawei – Mate 20 Pro.
Расписывать подробно технические характеристики смартфонов и даже их камер мы не стали – для этого есть обзоры, вышедшие про каждый из представленных в сравнительном тесте гаджетов:
Но обозначить какие-то ключевые вещи все-таки необходимо. Все представленные здесь смартфоны обладают различными по функциональности и техническому устройству камерами. Google Pixel 3 XL – единственный однокамерный смартфон, который не предлагает ни расширенного угла обзора, ни оптического зума, только программный. iPhone Xs Max – смартфон двухкамерный, у которого вторая камера обеспечивает двукратный оптический зум. Huawei, Samsung и Xiaomi же предложили трехкамерные системы с различными вариациями широкоугольной съемки и зумом – у Mi 9 и Galaxy S10+ двукратным, у Mate 20 Pro трехкратным. При этом все снабжены специальным портретным режимом с возможностью программного размытия заднего плана — это сегодня обязательная программа, а вот улучшение картинки при помощи «искусственного интеллекта» есть только у Samsung, Huawei и Xiaomi. В какой-то мере ту же роль играет HDR+ в Google Pixel 3 XL, но сравнивать в лоб эти режимы нет смысла. Apple iPhone все настройки, как обычно, прячет от пользователя, решая абсолютно все за него самостоятельно. Поэтому тесты мы проводили в автоматическом режиме и с базовыми настройками – но с отключенным AI-режимом у всех смартфонов, которые позволяют это сделать.
В разных тестах мы будем оценивать результат по различным критериям, но ключевыми факторами будут резкость и детализация. Кроме того, на результат влияет правильность установки экспозиции и баланс белого. В каждом тесте смартфон может набрать 1, 2, 3, 4 или 5 баллов, в зависимости от места в субъективной табели (за первое место – 5 баллов, за пятое место – 1 балл). Лучшим будет назван аппарат с наибольшим количеством баллов.
Наличие широкоугольного модуля не учитывать в конечной оценке невозможно просто потому, что у пользователя открываются дополнительные возможности при его использовании. Для оценки его работы проведен отдельный тест с тремя участниками – победитель в нем получил 3 балла, смартфон, занявший второе место, – 2 балла, третье – 1 балл. Соответственно, каждый из них получил дополнительные баллы в общую табель.
Так как мы не проводим пользовательский опрос, чистота эксперимента здесь не важна – расстановка фотографий всегда одинаковая, в алфавитном порядке.
Простая, базовая сцена, где от камеры в первую очередь требуются детализация, широкий динамический диапазон и качество цветопередачи.
Съемка на основную камеру, без применения широкоугольного или зум-режима, везде выставлены настройки по умолчанию (Huawei может задействовать свой «HDR в реальном времени», а Pixel 3 XL – HDR+). Здесь все проявляют себя хорошо – это как раз та сцена, где даже бюджетные аппараты должны выдавать нормальную картинку.
Наиболее приятно смотрится изображение в исполнении iPhone – цвета чуть холодноваты, но выглядит это породисто; детализация превосходная. Galaxy чуть желтит, картинка заметно светлее, менее контрастная, но сцене это идет. Pixel не использует свою фирменную обработку на полную катушку, тени оказываются недостаточно детализированными. Также отмечаем красноватые цвета. Huawei, несмотря на свой очень высокий статус, выдает слегка мыльную картинку с проваленными тенями и слишком теплыми цветами. У Xiaomi – натуральные цвета, но в остальном похвастать нечем: и динамический диапазон слаб, и детализация не предельная.
Apple iPhone Xs Max – 5 баллов;
Samsung Galaxy S10+ – 4 балла;
Google Pixel 3 XL – 3 балла;
Huawei Mate 20 Pro – 2 балла;
Xiaomi Mi 9 – 1 балл.
⇡#
**Съемка в интерьере со стандартным углом обзора**
Это заметно более тяжелая сцена – здесь важна точная работа с балансом белого, качественная детализация при хорошем шумоподавлении и не только широкий динамический диапазон, но и уверенная работа оптики с многочисленными источниками искусственного света.
В этой сцене склонность Huawei к теплым оттенкам работает на пользу этому смартфону – цвета выглядят естественными. Мыльность, которую мы заметили при съемке уличного пейзажа, куда-то уходит – детали прописаны четко. Samsung снова демонстрирует тенденцию к легкому переэкспонированию, но при условии хорошего динамического диапазона это не идет картинке во вред. Цвета при этом холоднее должного. Очень похожим образом выступает в этом сюжете и Xiaomi – качественная работа. iPhone, цвета которого выглядят на дисплее самого смартфона прекрасно, на экране откалиброванного монитора выдает уже слишком холодную картинку, причем выражена разница между теплым низом и холодным верхом. Pixel тоже вполне неплох, но проигрывает конкурентам в детализации и в динамическом диапазоне (HDR+ не включился в работу).
Тут есть несколько деталей. Три смартфона снабжены двукратным оптическим зумом (Xiaomi Mi 9, Samsung Galaxy S10+, iPhone Xs Max), один – трехкратным (Huawei Mate 20 Pro), а Google Pixel 3 XL и вовсе может демонстрировать только свои программные возможности с цифровым «трансфокатором».
И результаты очень неожиданные. Pixel со своим цифровым зумом демонстрирует очень качественную работу – изображение почти не теряет в четкости, контурная резкость подтянута аккуратно, «мыло» отсутствует. Разве что картинка чуть темновата. iPhone, правда, смотрится еще лучше: насыщенные, но честные цвета, хороший баланс белого, отличная детализация, уверенный динамический диапазон. Samsung не уступает обоим в резкости, но демонстрирует немного странную, неестественную цветопередачу. Xiaomi чуть проигрывает что в резкости, что в точности экспонирования, к тому же изображение бледное. Ну а Huawei с трехкратным зумом выступает в этом конкурсе хуже всех: слабая детализация в сочетании с неудачным балансом белого не оставляют этому творению китайской инженерной мысли шансов.
⇡#
**Съемка в интерьере с широкоугольной оптикой**
В этом конкурсе участвуют только три аппарата, обладающие широкоугольной оптикой: Huawei Mate 20 Pro, Samsung Galaxy S10+ и Xiaomi Mi 9. И Apple, и Google пропускают его и не получают очков.
У Samsung здесь очень простое оптическое преимущество – у широкоугольного объектива этого смартфона просто более широкий угол обзора, что в сочетании с грамотной работой с пространственными искажениями (ее еще можно улучшить в настройках) и нормальными цветами выводит его на первое место. У ШУ-камеры Galaxy нет автофокуса, но в таком сюжете это совершенно не имеет значения. Huawei тоже очень неплох, но немного уступает примерно по всем пунктам, кроме наличия автофокуса (что никак не влияет на картинку в данном случае), – и по детализации, и по углу обзора, и по цветопередаче. Xiaomi тоже может порадовать пользователя автофокусом в этом режиме, но сама картинка похуже – холодные цвета и бледный тон.
Самый сложный сюжет для любого смартфона – из-за малого размера сенсора ни одна смартфонная камера не может получать столько света, сколько даже обычная мыльница. Остается рассчитывать на оптическую стабилизацию, качественную программную обработку и светосильную оптику, чем могут похвастаться все смартфоны, принимающие участие в тестировании. Особенно выделяется, конечно, Samsung Galaxy S10+ с относительным отверстием главного объектива
*ƒ*/1,5. Тестировать съемку с зумом или широкоугольной оптикой в этом сюжете мы не стали. То же касается и специального ночного режима с применением многократной экспозиции – все смартфоны, у которых он есть (Google Pixel 3 XL, Huawei Mate 20 Pro, Xiaomi Mi 9), мы проверили, но оставили результаты вне конкурса.
Huawei Mate 20 Pro, несмотря на отсутствие фирменного монохромного сенсора (теперь уже фирменным может считаться матрица с RYYB-фильтром), демонстрирует высокое качество съемки – нормальный баланс белого, контрастная картинка; смартфон излишне старается в искусственном подъеме резкости, но это не приводит к плачевным результатам. Samsung выдает чуть более мыльную картинку – это необычно для корейских гаджетов, которые долгое время «славились» слишком активной работой с контурной резкостью. Зато по цветопередаче и балансу белого нет претензий. iPhone снимает примерно с той же детализацией, что и Samsung, но уступает в цветопередаче – его камера заметно «зеленит». У Xiaomi неплохая резкость, что радует с учетом отсутствия у гаджета оптического стабилизатора, но есть проблема с динамическим диапазоном – весьма заметны пересветы. Смартфон Google при настройках по умолчанию выдает слабую картинку – огромные пересветы и одновременно присутствие на снимке откровенного «мыла» и заметных шумов: «пиксель» буквально умоляет включить специальный ночной режим.
А вот при активации ночного режим, который требует 3-5 секунд неподвижности от фотографа, Pixel преображается – не сказали бы, что он превосходит тот же Huawei в его «базовой» ночной съемке, но отрыв от самого себя в обычном режиме очень значителен. Huawei выдает намного более яркую картинку, но излишне старается сгладить изображение – оно становится более мыльным, чем при съемке по умолчанию. Xiaomi работает в этом режиме нестабильно: получить качественное изображение с первого раза не всегда возможно, однако когда получается, все в порядке – яркая, резкая картинка, но с неверной цветопередачей (есть уклон в красные тона).
В этом сюжете есть естественное преимущество у Huawei Mate 20 Pro – режим «супермакро» с активацией широкоугольной камеры, обладающей минимальной дистанцией фокусировки в 2,5 см. Остальные участники теста работают с основной камерой и примерно одинаковой дистанцией фокусировки. В этом сюжете важны в первую очередь резкость и качество цветопередачи.
Huawei выигрывает этот конкурс без борьбы – просто за счет того, что с его помощью можно снимать почти реальное макро. А дальше уже довольно плотная борьба. Google Pixel выдает чуть холодноватые цвета, зато обходит остальных конкурентов (кроме Mate, конечно) по резкости. Apple iPhone вообще-то мог бы претендовать и на второе место в этом конкурсе — чуть иная цветопередача (смартфон Apple скорее «зеленит»), резкость если и уступает, то минимально. Но Pixel все же чуточку лучше. Samsung тоже демонстрирует хорошую резкость, но не очень справляется с экспозицией — в своем стиле поднимает яркость выше необходимого уровня, а здесь это картинке не идет. У Xiaomi тоже вполне рабочее макро, но по всем параметрам чуть уступающее конкурентам – что по резкости, что по цветопередаче.
Современные флагманские смартфоны в большинстве своем позволяют не просто снимать портреты с программным размытием заднего плана, а выбирать, каким образом его снимать – крупным планом или в рост. Где-то – просто двигаясь от модели, где-то – при помощи оптического зума. Мы сняли два портрета: ростовой и крупным планом – при дневном свете и один – с наиболее удобной дистанцией для каждого смартфона (стоящей по умолчанию при активации портретного режима) — при искусственном свете. Сначала разберем, как сработали камеры смартфонов на ростовом портрете.
Это наиболее естественная ситуация для Samsung Galaxy S10+ и Google Pixel 3 XL – в первом случае режим «живой фокус», который обеспечивает размытие заднего плана, почему-то не предполагает задействование зума, так что для съемки портрета крупным планом необходимо приближаться к объекту съемки. Во втором – оптический зум на смартфоне отсутствует вовсе, но есть вполне рабочий цифровой, как мы выяснили выше.
Надо сказать, что Pixel оправдывает надежды – в этом режиме он действительно проявляет себя лучше всех: хороший тон кожи, очень качественное размытие (лучшее среди всех), высокий контраст. Все недостатки кожи будут заметны, но картинка выглядит наиболее естественно. Huawei Mate 20 Pro, наоборот, очень «молодит», сглаживая в портретном режиме кожу (даже с отключенным бьютификатором) и слегка желтит, но портрет опять-таки смотрится естественно. iPhone, который славится своими естественными цветами, здесь этого не продемонстрировал, уведя тон кожи в красную область. Еще более сглаженную, чем у Huawei, картинку выдал Xiaomi. Также ему, как обычно, не хватило динамического диапазона (обратите внимание на пересвет на носу), но цвета – очень хорошие. Samsung, к сожалению, очень мылит кожу в режиме «живой фокус», и поделать с таким поведением ничего нельзя. Оно убивает остальные его достоинства в этом режиме — качественные боке и цветопередачу.
При съемке портрета крупным планом мы снимали на обычный угол при использовании Samsung, с двойным цифровым зумом – на Pixel, с двойным оптическим – на iPhone и Xiaomi и с тройным оптическим (базовый для этого смартфона) – на Huawei.
По цветопередаче ситуация перекликается с той, что мы видели при съемке ростовых портретов, но есть заметная разница в детализации. На удивление уверенно себя снова чувствует Pixel – при использовании минимального цифрового зума видимые потери в детализации попросту отсутствуют. Samsung из-за необходимости использовать широкоугольную камеру для съемки портрета крупным планом ощутимо «вытягивает» лицо, искажая его черты, – увы, это опять автоматом отбрасывает корейский флагман на последнее место. Также довольно плох Huawei – при съемке с трехкратным зумом даже при хорошем освещении сильно падает резкость, это тоже результат аутсайдера. iPhone и Xiaomi скорее делят второе место – у каждого свои козыри, но мягкая картинка «китайца» субъективно чуть более привлекательна.
⇡#
**Портрет при искусственном освещении**
При съемке портрета при искусственном освещении мы снимали на каждый смартфон с наиболее комфортным для него фокусным расстоянием.
Pixel вполне ожидаемо выиграл и в этом состязании – это очевидным образом лучший смартфон для съемки портретов из существующих сегодня: опять хорошие цвета, резкость и контрастность; лицо выглядит чуть бледно, но это вполне отражает состояние освещения в том месте, где проводилась съемка. Samsung при съемке в рост в данном случае проявил себя хорошо – смягчение черт лица сопровождало съемку на все смартфоны (кроме Pixel) из-за недостаточного освещения и, как следствие, включенного шумодава, в остальном же у Galaxy порядок – хороший баланс белого и приличная резкость. У Huawei заметно сильное сглаживание, но при этом очень хорошо сработал автофокус (резкость четко на глазах), хорошее размытие и нормальная цветопередача. iPhone тоже, в принципе, неплох, но хуже справился с цветопередачей на коже. Xiaomi в этом режиме беспомощен: картинка темная, бледная, без резкости.
**Текст** **/натюрморт**
Этот традиционный для подобных сравнительных обзоров тест должен в первую очередь выявить детализацию смартфонных камер. Все фото сделаны на главную камеру без применения зума.
В этом конкурсе уверенно выигрывает Huawei за счет сочетания естественной, правильной цветопередачи и максимальной резкости. iPhone близок в плане детализации, но цвета чуть холоднее. Samsung тоже хорошо выступил в плане резкости, но уступил в плане цветопередачи – картинка слишком теплая (что неожиданно для этого гаджета) и перенасыщенная. Xiaomi уступает и по резкости, и по цветопередаче, сильно уводя тона в синий. Pixel неожиданно слаб и в плане резкости, и в выборе баланса белого. Также картинка получилась слишком шумной, что затрудняет считывание текста.
Это, безусловно, субъективное тестирование, хоть и основанное на ряде самых разных ситуаций, — на окончательное решение «камерного» вопроса оно едва ли претендует, но пищи для размышлений, тем не менее, дало немало.
*Итоги* *:*
Результаты не совпадают с присвоенными тестом DxO Mark. Если первое место у нас и у DxO одинаковое — и это предсказуемо, то дальше идет разброд: например, Google Pixel 3 XL, в первую очередь благодаря уверенной работе во всех портретных режимах, качественной цветопередаче и своему чудесному цифровому зуму, поднялся сильно выше Xiaomi Mi 9, который в большей части тестов занимал четвертое-пятое места, уступая более дорогим конкурентам. iPhone Xs Max не продемонстрировал какой-то выдающейся цветопередачи, о которой принято судачить в кулуарах, зато привычно стабилен почти в любой ситуации, кроме съемки с самым широким углом – тут Samsung Galaxy S10+, Huawei Mate 20 Pro и Xiaomi Mi 9 имеют однозначное физическое преимущество, которое, возможно, недостаточно выражено в цифровом эквиваленте в нашем тестировании.
Самый главный вывод при этом примиряющий – камеры смартфонов уже не просто убили «фотомыльницы», а претендуют на позиции зеркалок начального и среднего уровня. За счет многокамерных систем, эффективных стабилизаторов, светосильной оптики и, конечно, непрерывно прогрессирующей программной обработки буквально каждый год идет очень заметный прогресс. Во многих ситуациях смартфоны способны выдать картинку не просто сравнимую по качеству, а порой и выигрывающую за счет более качественной «внутрикамерной» обработки. |
985,557 | Оптимальный игровой ПК за 130-150 тысяч рублей (весна-лето 2019 года): сравнение актуальных систем AMD и Intel | В конце прошлого года на нашем сайте вышла статья «Очень приятно, царь: собираем игровой ПК с Core i9-9900K и GeForce RTX 2080 Ti», в которой мы детальным образом рассмотрели игровые возможности, пожалуй, самой дорогой и производительной конфигурации, которую можно собрать с использованием современных массовых платформ AMD и Intel. На этот раз мы уделим внимание системным блокам попроще, впрочем, все равно относящимся к категории High-end и подходящим для игр в разрешении Ultra HD. В таком компьютере используется видеокарта NVIDIA GeForce RTX 2080 или AMD Radeon VII.
Постоянные читатели 3DNews знают про рубрику «Компьютер месяца», в рамках которой каждый месяц рассматриваются актуальные в определенный период времени конфигурации системных блоков. Сегодня речь пойдет о том, что мы в этой рубрике называем максимальной сборкой, — системе с бюджетом в 130-150 тысяч рублей.
⇡#Как менялась максимальная сборка
Итак, под понятием «максимальная сборка» подразумеваются довольно производительные системы, возникновением которых мы обязаны… экономическому кризису, настигшему Россию (да и весь мир) в конце 2014 года. Если говорить очень грубо, то в 2015 году компьютеры при пересчете в рубли стали вдвое дороже, а потому за производительную и сбалансированную сборку приходилось платить порядка 150 000 рублей. Прошло четыре года, но с тех пор принципиально ничего не изменилось, хотя сами конфигурации с 2015 года преобразились радикально. Доказательство представлено в таблице ниже.
|
Эволюция максимальной сборки (130-150 тысяч рублей)
|
Основные комплектующие |
2015 год |
2016 год |
2017 год |
2018 год |
2019 год
|
Процессор |Intel Core i7-5820K, 6 ядер и 12 потоков, 3,3 (3,6) ГГц, 15 Мбайт L3
|Intel Core i7-5820K, 6 ядер и 12 потоков, 3,3 (3,6) ГГц, 15 Мбайт L3
Intel Core i7-6700K, 4 ядра и 8 потоков, 4,0 (4,2) ГГц, 8 Мбайт L3
|AMD Ryzen 7 1700X, 8 ядер и 16 потоков, 3,4 (3,8) ГГц, 8+8 Мбайт L3, AM4
|AMD Ryzen 7 1700X, 8 ядер и 16 потоков, 3,4 (3,8) ГГц, 8+8 Мбайт L3, AM4
AMD Ryzen 7 2700X, 8 ядер и 16 потоков, 3,7 (4,3) ГГц, 8+8 Мбайт L3, AM4
|AMD Ryzen 7 2700X, 8 ядер и 16 потоков, 3,7 (4,3) ГГц, 8+8 Мбайт L3, AM4
|Intel Core i7-7700K, 4 ядра и 8 потоков, 4,2 (4,5) ГГц, 8 Мбайт L3, LGA1151
Intel Core i7-8700K, 6 ядер и 12 потоков, 3,7 (4,7) ГГц, 12 Мбайт L3, LGA1151
|Intel Core i7-8700K, 6 ядер и 12 потоков, 3,7 (4,7) ГГц, 12 Мбайт L3, LGA1151
Intel Core i7-9700K, 8 ядер, 3,6 (4,9) ГГц, 12 Мбайт L3, LGA1151-v2
|Intel Core i7-8700K, 6 ядер и 12 потоков, 3,7 (4,7) ГГц, 12 Мбайт L3, LGA1151
Intel Core i7-9700K, 8 ядер, 3,6 (4,9) ГГц, 12 Мбайт L3, LGA1151-v2
|
Видеокарта |NVIDIA GeForce GTX 980 Ti, 6 Гбайт GDDR5
| NVIDIA GeForce GTX 980 Ti, 6 Гбайт GDDR5
NVIDIA GeForce GTX 1080, 8 Гбайт GDDR5X
| NVIDIA GeForce GTX 1080, 8 Гбайт GDDR5X
NVIDIA GeForce GTX 1080 Ti, 11 Гбайт GDDR5X
|NVIDIA GeForce GTX 1080 Ti, 11 Гбайт GDDR5X
NVIDIA GeForce RTX 2080, 8 Гбайт GDDR6
|AMD Radeon VII, 16 Гбайт HBM2
|NVIDIA GeForce RTX 2080, 8 Гбайт GDDR6
|
Оперативная память |4 × 4 Гбайт DDR4-2133
|4 × 4 Гбайт DDR4-2133
4 × 8 Гбайт DDR4-2133
2 × 16 Гбайт DDR4-2400
|2 x 16 Гбайт DDR4-2400
2 × 16 Гбайт DDR4-3000
2 × 16 Гбайт DDR4-3200
|2 × 16 Гбайт DDR4-3200
|2 × 16 Гбайт DDR4-3000
2 × 16 Гбайт DDR4-3200
|
Накопители |HDD, 1 Тбайт, 7200 об/мин, SATA 6 Гбит/с
SSD, 480-512 Гбайт, SATA 6 Гбит/с
|HDD, 1 Тбайт, 7200 об/мин, SATA 6 Гбит/с
HDD, 2 Тбайт, 7200 об/мин, SATA 6 Гбит/с
SSD, 480-512 Гбайт, SATA 6 Гбит/с
|HDD, 1 Тбайт, 7200 об/мин, SATA 6 Гбит/с
SSD, 480-512 Гбайт, SATA 6 Гбит/с
SSD, 500-512 Гбайт, PCI Express x4 3.0
SSD, 250-256 Гбайт, PCI Express x4 3.0
|HDD, 1 Тбайт, 7200 об/мин, SATA 6 Гбит/с
SSD, 500-512 Гбайт, PCI Express x4 3.0
SSD, 250-256 Гбайт, PCI Express x4 3.0
|SSD, 500-512 Гбайт, PCI Express x4 3.0
Некоторые читатели спрашивают: а зачем «Компьютеру месяца» выходить каждый месяц? Если отбросить название статьи, то ответ будут такой: у меня есть довольно большая статистика, которую я начал вести с 2015 года и которую я считаю довольно интересной, — она позволяет посмотреть на развитие компьютерной техники под разными углами.
Довольно долгое время категория, о которой идет речь, называлась в «Компьютере месяца» экстремальной. В 2017 году определенные обстоятельства (например, появление HEDT-платформ AMD и Intel) заставили нас переименовать эту сборку в максимальную и отодвинуть ее на ступеньку ниже. Под этим названием подразумевается использование лучших на момент написания материала комплектующих, вписывающихся в рамки массовых платформ, таких как AMD AM4 и Intel LGA1151. Сейчас максимальная сборка — это вторая в плане производительности конфигурация «Компьютера месяца». В системе AMD используется самый продвинутый на данный момент чип для платформы AM4 — Ryzen 7 2700X. В системе Intel ситуация обстоит несколько иначе.
Таблица выше наглядно показывает, что довольно долгое время максимальную сборку представляли исключительно платформы Intel. Так, в 2015 году мой выбор пал на 6-ядерный Core i7-5820K поколения Haswell-E. Затем было решено собирать ПК на базе 4-ядерных Core i7-6700K, а впоследствии — на Core i7-7700K. Многое изменилось с выходом чипов Ryzen весной 2017 года — AMD наконец-то всерьез и, похоже, надолго вернулась в игру, если речь идет о высокопроизводительных системах.
А еще вы наверняка заметили тотальное превосходство видеокарт NVIDIA в сегменте High-End. Ничего не попишешь: либо ответ «красных» выходил слишком поздно, либо его в какой-то момент нереально было купить (пример — Radeon RX Vega 64), либо он не соответствовал требованиям тех лет (Radeon Fury X с 4 Гбайт HBM-памяти). Только в апреле 2019 года в максимальную сборку была добавлена Radeon VII — и то с некоторыми оговорками.
⇡#Обоснование выбора комплектующих
Максимальная сборка — это две конфигурации, способные в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики во всех трех популярных разрешениях. В 4K-разрешении максимальная конфигурация тянет ААА-проекты на высоких (но не максимальных) настройках качества графики. В апрельском выпуске «Компьютера месяца» максимальная сборка выглядит так, как показано в таблице ниже. Давайте поговорим об основных компонентах систем AMD и Intel более подробно. В частности, порассуждаем на тему, как в той или иной ситуации можно сэкономить или, наоборот, доплатить, но получить при этом принципиально более производительный системный блок.
|
Максимальная сборка (апрель 2019 года)
|
Процессор |AMD Ryzen 7 2700X, 8 ядер и 16 потоков, 3,7 (4,3) ГГц, 8+8 Мбайт L3, AM4, OEM
|24 000 руб.
|Intel Core i7-8700K, 6 ядер и 12 потоков, 3,7 (4,7) ГГц, 12 Мбайт L3, LGA1151-v2, OEM
|26 500 руб.
|
Материнская плата |AMD X470
|15 000 руб.
|Intel Z390 Express
|15 000 руб.
|
Оперативная память |32 Гбайт DDR4-3000/3200
|15 000 руб.
|
Видеокарта |NVIDIA GeForce RTX 2080 8 Гбайт GDDR6
|53 000 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 480-512 Гбайт, PCI Express x4 3.0
|10 500 руб.
|
Процессорный кулер |Башенный кулер
|4 500 руб.
|
Корпус |Mid-Tower
|5 000 руб.
|
Блок питания |650-750 Вт
|6 500 руб.
|
Итого |AMD — 134 500 руб.
Intel — 140 000 руб.
Начнем с центральных процессоров. С выбором чипа для платформы AM4 ломать голову не приходится, хотя в расчет можно взять несколько вариантов. Самым простым способом собрать максимальную сборку AMD станет покупка 8-ядерного Ryzen 7 2700X. На данный момент — это самый быстрый чип «красных», поддерживаемый платформой AM4. Уже летом AMD анонсирует поколение процессоров Ryzen 3000, но, полагаю, Ryzen 7 2700X еще долгое время будет актуальным среди энтузиастов.
Сразу же обращу ваше внимание: покупать Ryzen 7 2700X есть смысл тем, кто не собирается разгонять процессор. Так, при 16-поточной нагрузке этот чип работает на частоте 3,95 ГГц — технологии Precision Boost 2 и XFR2 делают свое дело. Самостоятельно же нам удалось разогнать Ryzen 7 2700X всего до 4,1 ГГц — переход на 12-нанометровый техпроцесс не сильно увеличил оверклокерский частотный потенциал «красных» чипов. В то же время стало ясно, что поколение Pinnacle Ridge стало более прожорливым и более горячим. Ситуация доходит до комической: разогнанный до 4,1 ГГц Ryzen 7 2700X уступает в некоторых играх самому себе же в режиме по умолчанию, поскольку технологии Precision Boost 2 и XFR2 интеллектуальны настолько, что, при игровой нагрузке, которая практически никогда не может задействовать все потоки многоядерного процессора, они очень агрессивно повышают частоту отдельных ядер и выводят старшие Pinnacle Ridge на ступень выше того предела, который достижим при ручном синхронном разгоне всех ядер сразу.
Вот и получается, что разгон флагманских Ryzen 2000-серии (речь идет про Ryzen 7 2700X и Ryzen 5 2600X) лишен практического смысла. А вот младшие процессоры AMD разгонять нужно.
Собственно говоря, вот и «нарисовались» две альтернативы Ryzen 7 2700X. Первая — это покупка Ryzen 5 2600X, процессора, которому тоже не очень-то необходим разгон. Потеря двух ядер, как показывают наши тесты, обязательно скажется на быстродействии системы в играх, но не очень серьезно и далеко не во всех.
Второй вариант — это покупка любого другого 6- или 8-ядерного Ryzen без литеры Х, но с условием, что он будет разогнан. Например, радикальным методом экономии станет покупка чипа Ryzen 7 1700. При загрузке всех восьми ядер этот процессор работает на частоте 3,2 ГГц — такого показателя, конечно же, недостаточно для работы в паре с графикой уровня GeForce RTX 2080 или Radeon VII. Однако этот процессор совершенно спокойно разгоняется до 3,9 ГГц. В результате система с Ryzen 7 1700 по производительности вплотную приблизится к компьютеру с Ryzen 7 2700X.
Наш бюджет все же позволяет сразу приобрести топовый Ryzen — так что именно на нем мы и остановимся. Обращу ваше внимание, что Ryzen 7 2700X — весьма горячий процессор в своем классе. Согласно техническим характеристикам, уровень TDP этого чипа составляет 105 Вт, но наши тесты показывают, что его предельное потребление энергии доходит до 140 Вт. Естественно, для того, чтобы 8-ядерник работал на максимальной частоте, необходимо оснастить его качественной системой охлаждения. В сборке, о которой пойдет речь далее, используется модель Cooler Master HYPER 212 RGB BLACK EDITION. С ее помощью Ryzen 7 2700X в программе Prime95 не нагревается выше 79 градусов Цельсия, и этого достаточно для работы всех восьми ядер чипа на частоте 3,95 ГГц. Например, с использованием кулера Wraith Prism частота этого же чипа в схожей ситуации стабильно опускается ниже 3,8 ГГц.
Обращу ваше внимание, что Prime95 — это программа, которая очень сильно нагружает подсистему «процессор — память». В играх Ryzen 7 2700X с установленным на него Cooler Master HYPER 212 RGB BLACK EDITION за три часа нагрелся всего до 65 градусов Цельсия. Хороший результат, как по мне.
Аналогичным образом Cooler Master HYPER 212 RGB BLACK EDITION хорошо подойдет и для платформы Intel LGA1151-v2, а следовательно, для процессоров Coffee Lake (Refresh).
Вернемся к теме выбора центрального процессора, но уже для системы Intel. Вы, наверное, уже обратили внимание на то, что в таблице указан Core i7-8700K, хотя были времена, когда я рекомендовал 8-ядерный Core i7-9700K. Вопрос обсуждаемый, тем более с учетом того, что в этой статье речь идет о компьютере с бюджетом до 150 000 рублей. Однако Core i7-9700K стоит весной этого года в среднем на 6 000 рублей больше Core i7-8700K.
Конечно же, мы тестировали Core i7-9700K. Наши испытания показывают, что в играх в разрешении Full HD (с GeForce RTX 2080 Ti в стенде) 8-ядерник оказывается лучше Core i7-8700K — в некоторых играх разница достигает 10-12 FPS. С одной стороны, никакая это не разница: было в «Ведьмаке» 164 FPS, а стало 174 FPS — ну и что теперь? С другой, во-первых, фреймрейт все же увеличился. Во-вторых, очевидно, что Core i7-9700K обладает большим запасом прочности. Когда через три-четыре года захочется сменить видеокарту, то у вас попросту будет меньше головной боли. Кроме того, мы всегда можем самостоятельно разогнать Core i7-8700K даже без скальпирования до 4,7-4,8 ГГц — чем обязательно займемся во второй части статьи.
Интересно, что на один удачно разгоняемый чип Coffee Lake Refresh в продаже встретится сразу несколько неудачных образцов. На нашем сайте выходил подробный анализ этого вопроса. Про не самый лучший припой под крышкой у «кофейников» я уже писал. Так что покупка Core i7-9700K в любом случае окажется лотереей. Лично я считаю, что особого смысла такой процессор разгонять уже нет — он и так работает на очень высоких частотах. При активации функции Multi-Core Enhancements Core i7-9700K при загрузке всех восьми ядер держит 4,6 ГГц.
Еще одной альтернативой Core i7-8700K станет покупка Core i7-8700 — эти чипы при загрузке всех шести ядер работают на одной частоте в 4,3 ГГц, но у последнего заблокирован множитель, то есть его разогнать не получится. Зато получится сэкономить, если оверклокинг не входит в ваши планы.
На чем нельзя экономить в случае с 8-ядерными чипами Intel и AMD, так это на материнской плате. Даже без разгона эти процессоры серьезно нагружают конвертер питания, перегрев которого приводит к снижению частоты или к нестабильной работе. Мы регулярно поднимаем эту тему в статьях. Про то, как работают конвертеры питания материнских плат различного уровня, вы можете узнать, прочитав статьи «Обзор 5 бюджетных материнских плат на Intel H310 Express: есть ли смысл экономить?», «Можно ли сэкономить на матплате при покупке 8-ядерного процессора Intel?» и «Какое охлаждение выбрать при использовании 8-ядерных процессоров Intel», но в комментариях постоянно отмечаются «знатоки», которые искренне верят в то, что все платы одинаковые и что дешевые модели от дорогих отличаются только наличием, например, более красочной подсветки. К счастью или к сожалению, это не так.
Стоит учесть один важный момент: игры нынче нагружают центральный процессор и подсистему питания материнской платы не так сильно, как это делают ресурсоемкие многопоточные приложения. Поэтому большинство геймеров вряд ли когда-нибудь столкнется с перегревом. И все же конфигурации в «Компьютере месяца» подбираются так, чтобы они работали стабильно при любых условиях.
До апреля определиться с видеокартой было очень просто. В прошлом году, если помните, приходилось ломать голову над выбором между GeForce GTX 1080 Ti и GeForce RTX 2080 — эти видеокарты и стоили одинаково, и обладали, по сути, одинаковым уровнем быстродействии. На стороне первой выступали дополнительные 3 Гбайт видеопамяти, которые в том же разрешении Ultra HD порой оказываются нелишними. На стороне GeForce RTX 2080 — новейшие технологии, такие как аппаратная трассировка лучей. Правда, игр, поддерживающих, как говорят скептики, «божественные лучи», к апрелю вышло не очень-то и много: Metro Exodus, Battlefield V и Shadow of the Tomb Raider. Вот было бы таких игр хотя бы штук 30, а не 3…
Сейчас ситуация упростилась. GeForce GTX 1080 Ti все еще можно приобрести, но, например, в «Регарде» на момент написания статьи было доступно 7 моделей с очень странными ценами, меняющимися в пределах 60-79 тысяч рублей. Спасибо, не надо.
В январе же была представлена Radeon VII — самая настоящая и адекватная альтернатива GeForce RTX 2080. Новинка AMD давит на ту же «мозоль» и предлагает 16 Гбайт быстрой HBM-памяти вместо «каких-то» 8 Гбайт GDDR6. В апреле «семерку» можно беспрепятственно приобрести в московской рознице по цене 55-60 тысяч рублей. Небольшая загвоздка заключается в том, что на прилавках магазинов присутствуют исключительно клоны одной и той же референсной модели, так как версий Radeon VII с альтернативным дизайном в продаже нет и, возможно, не предвидится. Кулер у «семерки» работает довольно шумно, даже очень. В этом плане флагман AMD, конечно же, проигрывает целой ораве нереференсных версий GeForce RTX 2080.
С остальными комплектующими, на самом деле, разобраться не так сложно. В рамках максимальной сборки предлагаю брать сразу же 32 Гбайт оперативной памяти — естественно, нужен двухканальный комплект. Еще в 2017 году мы выяснили, что среднестатистический игровой компьютер нуждается в 16 Гбайт ОЗУ. Что ж, в 2019 году ситуация не меняется. Однако покупка 32 Гбайт позволяет нам полностью забыть про то, что когда-то там, через пару-тройку лет, нужно будет бежать в магазин и искать максимально похожий по характеристикам комплект оперативной памяти.
Естественно, при выборе ОЗУ ориентируемся на высокочастотные наборы стандартов DDR4-3000 и DDR4-3200. Особенно к выбору оперативной памяти критична платформа AM4 — с большущим (пусть уже и не совсем актуальным) экспериментом на эту тему вы можете познакомиться здесь.
Уже давно в максимальной и экстремальной сборках рекомендуются быстрые NVMe-накопители. В нашем случае установлена модель попроще — уровня Samsung 970 EVO Plus. Также довольно часто в «Компьютере месяца» я рекомендовал модель ADATA XPG SX8200. Мне кажется, объема в 500 Гбайт будет достаточно для того, чтобы установить операционную систему, драйверы и 3-4 наиболее часто запускаемых игры.
Жесткий диск выбирайте исходя из своих предпочтений.
В сборки, начиная с базовой конфигурации, я рекомендую блоки питания мощностью 600+ Вт. Понятно, что эти системы не нуждаются в такой мощности — например, сборка с Core i9-9900K и GeForce RTX 2080 в играх потребляет максимум 350 Вт. Однако в пользу выбора именно таких моделей есть сразу несколько аргументов. Во-первых, разница в цене между устройствами близкой мощности, как правило, оказывается несущественной. Мы сбережем копеечку, но со временем только переплатим, так как даже при последующей установке процессора и видеокарты с большим TDP мощности блока питания все равно будет достаточно с хорошим запасом. Во-вторых, любой блок питания работает с максимальной эффективностью при загрузке в диапазоне 40-60 %. В таком режиме компоненты БП меньше греются, а вентилятор работает на сниженной частоте вращения. В-третьих, у моделей мощностью 600-700 Вт элементарно больше кабелей с необходимыми разъемами.
Для максимальной сборки в обязательном порядке рекомендуется «кормилец», поддерживающий стандарт эффективности не ниже 80 PLUS Gold — наличие этого сертификата косвенно свидетельствует о хорошем качестве его сборки. Все же блок питания — это вложение средств на долгий срок. Через несколько лет вы поменяете процессор, материнскую плату, видеокарту, память, но хороший блок питания, очевидно, останется и продолжит служить своему хозяину.
Брать более мощную «кормушку» (больше 800 Вт) в максимальную сборку я не вижу смысла. Ну незачем «городить» SLI-массив из пары GeForce RTX 2080 или CrossFire-тандем из Radeon VII.
Остается выбрать корпус. Можно сэкономить, ведь некоторые рассматривают компьютер исключительно как инструмент, а не как роскошь. Можно, наоборот, заморочиться со сборкой чего-нибудь интересного. Все же мы живем один раз — иногда можно и побаловать себя любимого. Какой бы корпус вы ни выбрали, главное, чтобы он обладал продуманной конструкцией: максимальная сборка, как мы выяснили, подразумевает использование довольно горячих компонентов.
Таблицы с перечнем комплектующих — это, конечно же, хорошо, однако новички не всегда могут представить, как на самом деле будет выглядеть их игровой ПК. Поэтому для рубрики «Оптимальный игровой ПК» я всегда собираю реальные системы, а затем тестирую их. В этот раз в фокусе оказались комплектующие компаний ASUS и Cooler Master. Полный список железа указан в таблице ниже.
|
Максимальная сборка. Пример
|
Центральный процессор |AMD Ryzen 7 2700X
|Intel Core i7-8700K
|
Охлаждение |Cooler Master HYPER 212 RGB BLACK EDITION
|
Материнская плата |ASUS ROG STRIX X470-F GAMING
|ASUS ROG STRIX Z390-E GAMING
|
Оперативная память |32 Гбайт DDR4-3200
|
Видеокарта |ASUS ROG Strix GeForce RTX 2080 OC
|
Накопитель |Samsung 970 EVO Plus
|
Блок питания |Cooler Master MWE Gold 750 Full Modular, 750 Вт
|
Корпус |Cooler Master MasterBox MB520
Приведенные в таблице комплектующие полностью совместимы друг с другом. Процесс сборки системного блока прошел без каких-либо задержек и осложнений. Тем, кто никогда самостоятельно не собирал ПК, рекомендую ознакомиться с подробным пошаговым руководством по сборке системного блока.
Про оперативную память, процессоры и накопитель, используемые в оптимальном ПК, я уже подробно рассказал в предыдущем параграфе. Давайте более детально рассмотрим остальные комплектующие.
Основой наших систем стала видеокарта ASUS ROG Strix GeForce RTX 2080 OC, которую в продаже вы встретите под маркировкой ROG-STRIX-RTX2080-O8G-GAMING. Как видно по названию, перед вами разогнанная версия GeForce RTX 2080: относительно эталонных значений частота GPU увеличена с 1710 до 1890 МГц в Boost-режиме. Что ж, имеем неплохой заводской оверклокинг в 180 МГц. Реальная же частота процессора ASUS ROG Strix GeForce RTX 2080 OC в играх меняется в диапазоне от 1965 до 2010 МГц.
Управлять частотой видеокарты можно при помощи рычага, расположенного сверху. По умолчанию включен режим Performance, но переключатель можно перевести в положение Quiet — в таком случае частота GPU видеокарты сбрасывается до эталонных для GeForce RTX 2080 значений.
Под нагрузкой температура самого графического чипа поднимается максимум до 64 градусов Цельсия. Как видите, перед вами очень холодная версия GeForce RTX 2080. Три вентилятора раскручиваются всего до 1600 об/мин — это 45 % от максимальной частоты вращения. В конструкции используются крыльчатки Axial-tech. Размер их центральной части уменьшен, чтобы увеличить длину лопастей, а специальное кольцо-ограничитель обеспечивает структурную прочность и усиленное давление воздуха в направлении радиатора. Производитель утверждает, что такая инженерная находка позволяет «карлсонам» перемещать больше воздуха и вращаться на более высоких скоростях по сравнению с обычными вентиляторами. К тому же увеличение частоты вращения не скажется на уровне шума. Пыленепроницаемая конструкция Axial-tech соответствует стандарту IP5X. В реальности ASUS ROG Strix GeForce RTX 2080 OC действительно работает очень тихо. С 30 сантиметров от тестового стенда наш измерительный прибор зафиксировал всего 36 дБА. Плюс к этому вентиляторы графического ускорителя начинают вращаться, только когда чип достигает температуры 55 градусов Цельсия.
Кулер видеокарты оснащен большим радиатором, поэтому ASUS занимает 2,7 слота расширения в корпусе. Зато он имеет сдвоенную конструкцию алюминиевых ребер и сразу шесть теплотрубок. С GPU радиатор контактирует при помощи большой медной пластины, при этом он также соприкасается и с элементами VRM-цепи. Для чипов памяти предусмотрена отдельная металлическая пластина — к ней, кстати, крепится задняя рамка, увеличивающая жесткость ASUS ROG Strix GeForce RTX 2080 OC. Для крупных видеокарт этот аксессуар явно не будет лишним.
Естественно, ускоритель оснащен яркой и красочной подсветкой, реализованной на кожухе и усилительной пластине видеокарты.
Подсистема питания видеокарты насчитывает 12 фаз, где 10 каналов отведено для работы GPU и еще два — для чипов GDDR6. Собственно говоря, поэтому ASUS ROG Strix GeForce RTX 2080 OC заметно выросла в ширину (130 мм вместо стандартных 100 мм) и не сможет поместиться в некоторые компактные корпуса. Длина ускорителя составляет 300 мм.
Система с процессором AMD собрана на базе материнской платы ASUS ROG STRIX X470-F GAMING. Она очень напоминает когда-то протестированную нами модель ASUS ROG STRIX B350-F GAMING, заслужившую награду «3DNews рекомендует». Устройство выполнено на базе полноценной печатной платы форм-фактора ATX и оснащено сразу шестью слотами расширения. Разъемы PCI Express x16 работают по схеме x8+x8+8+x4 — последний порт поддерживает второй стандарт интерфейса (линии PCI Express делятся с разъемами PCIEX1_1 и PCIEX1_3), первые два соответствуют требованиям PCI Express 3.0. Естественно, ASUS ROG STRIX X470-F GAMING поддерживает работу таких технологий, как AMD CrossFire и NVIDIA SLI. Обращу ваше внимание, что слоты, предназначенные для установки видеокарт, армированы. Производитель утверждает, что оболочка ASUS SafeSlot повышает их надежность в 1,6-1,8 раза. Сами разъемы PCI Express x16 максимально удалены друг от друга. Если предположить, что все же в системе на базе ASUS ROG STRIX X470-F GAMING будет использоваться сразу две видеокарты ASUS ROG Strix GeForce RTX 2080 OC, то они будут по минимуму мешать друг другу.
«Посадочные полосы» для M.2-накопителей расположены удачно. Основным считается верхний порт — он поддерживает установку устройств форм-факторов 2242, 2260, 2280 и 22110, а также предусматривает дополнительное охлаждение для SSD. Как основной этот разъем стоит рассматривать потому, что SSD в нем не будет спрятан под видеокартой, и при этом его будет дополнительно обдувать вентилятор процессорного кулера. Твердотельный накопитель подключается непосредственно к процессору, поддерживается работа устройств как с интерфейсом PCI Express x4 3.0, так и с SATA 6 Гбит/с. Второй M.2-слот позволяет установить SSD форматов 2242, 2260, 2280 и в зависимости от установленного центрального процессора может работать как в режиме PCI Express x2 3.0, так и в режиме SATA 6 Гбит/с.
Кроме того, к ASUS ROG STRIX X470-F GAMING можно подключить до шести запоминающих устройств при помощи портов SATA 6 Гбит/с.
Материнская плата насчитывает сразу семь разъемов для подключения вентиляторов, все они — 4-контактные, так что частотой вращения подключенных к ним вентиляторов можно управлять как с ШИМ, так и без нее. Колодки разделены на четыре группы, и их расположение выбрано удачно. Так, к верхним портам мы подключим вентиляторы процессорного кулера (например, в случае использования в системе башенного суперкулера или двухсекционной СВО). К коннекторам, расположенным ближе к I/O-панели, подключим корпусную крыльчатку, закрепленную на задней стенке, а также помпу от жидкостной СО, если таковая имеется. К разъемам, которые распаяны в нижней части платы, — корпусные вентиляторы, закрепленные на передней панели и работающие на вдув. Так что семи разъемов для подключения систем охлаждения вполне достаточно для сборки весьма производительного игрового ПК.
ASUS ROG STRIX X470-F GAMING позволяет подключить внутренний порт USB 3.1 Gen2. На текстолите присутствует сразу три коннектора для подключения RGB-лент. На I/O-панели устройства предусмотрены видеовыходы HDMI и DisplayPort, а также сразу два разъема USB 3.1 Gen2 A-типа. Кроме них, интерфейсная панель насчитывает PS/2, USB 3.1 Gen1 Type-C, пять USB 3.1 Gen1 A-типа, пять 3,5-мм «джеков» и RJ-45.
Отмечу, что за проводное сетевое подключение отвечает гигабитный контроллер Intel I211-AT, а за встроенный звук — SupremeFX, основанный на чипе Realtek S1220A. Звуковая подсистема оснащена стабилизатором напряжения, операционными усилителями Texas Instruments RC4850 и OPA1688 и японскими «аудиофильскими» конденсаторами Nichicon. Сам чип экранирован металлической рамкой. В ASUS эту задумку называют технологией SupremeFX Shielding. Все элементы звукового тракта изолированы от остальных компонентов печатной платы. В итоге, по заявлению производителя, ROG SupremeFX S1220A обеспечивает соотношение «сигнал — шум» на уровне 113 дБ.
Элементы подсистемы питания центрального процессора охлаждаются двумя раздельными алюминиевыми радиаторами довольно крупных размеров. Конвертер питания состоит из восьми фаз. Шесть каналов обеспечивают работу напряжения Vcore, в схеме используются полевые транзисторы IR3555 от International Rectifier, которые готовы выдать ток до 60 А. Еще две сдвоенные (при помощи IR3599) фазы обеспечивают работу SoC-составляющей центрального процессора. Отмечу, что под нагрузкой в виде программы Prime95 при использовании Ryzen 7 2700X и необслуживаемой СЖО (то есть околосокетное пространство никак не обдувалось) VRM-зона ASUS ROG STRIX X470-F GAMING нагревалась максимум до 92 градусов Цельсия — это вполне рабочая температура. В играх, особенно при дополнительном обдуве со стороны вентилятора на процессорном кулере, конвертер питания греется заметно-заметно ниже.
Детальный обзор материнской платы ASUS ROG STRIX Z390-E GAMING выходил на нашем сайте в прошлом году, поэтому не вижу смысла повторяться. Просто отмечу, что для стабильной работы Core i7-9700K и Core i9-9900K это устройство вполне подходит. Только при разгоне флагманских Coffee Lake обязательно используйте комплектный вентилятор, а также убедитесь, что охлаждение в вашем корпусе организовано грамотно. И если вам повезет с чипом, то вы сможете добиться от 8-ядерника стабильной работы на частоте 4,9-5,2 ГГц. Как видите, для оверклокинга в домашних условиях достаточно материнской платы среднего ценового диапазона. Каких-либо претензий к ASUS ROG STRIX Z390-E GAMING у нас нет. Она весьма функциональна, особенно радует наличие сразу семи коннекторов для подключения вентиляторов. К разводке компонентов тоже вопросов нет, поэтому с проблемами во время сборки системного блока вы вряд ли столкнетесь.
О принципах выбора блока питания для максимальной сборки я рассказал в предыдущем параграфе. Первоначально российское представительство компании Cooler Master обещало прислать 650-ваттную модель, но в итоге ко мне в руки попала версия мощнее, а именно Cooler Master MWE Gold 750 Full Modular. Что ж, никакой трагедии в этом нет.
Как я уже сказал, косвенным признаком качественного блока питания служит наличие у него сертификата для определенного стандарта эффективности. Модель Cooler Master MWE Gold 750 Full Modular имеет золотой сертификат, к тому же производитель дает 5-летнюю гарантию на свою продукцию. Устройство — полностью модульное. В комплекте идут довольно длинные плоские кабели, с которыми приятно работать. В коробке я отыскал сразу четыре провода с разъемами PCI-E 6+2. Как видите, организовать SLI- или CrossFire-массив из пары видеокарт уровня GeForce RTX 2080 не составит особых проблем.
Модель Cooler Master MWE Gold 750 Full Modular — это честный блок питания, в том плане что по 12-вольтовой линии устройства передается 750 Вт энергии. Еще 100 Вт обеспечивают каналы +3,3 и +5 В.
За охлаждение компонентной базы устройства отвечает 120-мм вентилятор, в основе которого лежит «герметичный» подшипник. Производитель утверждает, что «вертушка» способна проработать 160 000 часов. При этом работает Cooler Master MWE Gold 750 Full Modular практически бесшумно на уровне мощности, требуемом для максимальной сборки.
За охлаждение центральных процессоров отвечает Cooler Master HYPER 212 RGB BLACK EDITION — это разновидность достаточно популярного в России кулера HYPER 212. Поддерживаются все современные и не очень платформы — за исключением TR4. Как видно из названия, устройство не лишено подсветки — идущий в комплекте 120-мм вентилятор SF120R RGB оснащен двумя 4-контактными проводами. Он поддерживает работу с системами управления подсветкой всех ведущих производителей материнских плат, но на всякий случай комплектуется и небольшим пультом управления. Сам «карлсон» оснащен девятью лопастями, его частота вращения меняется в диапазоне от 650 до 2000 об/мин. Максимальный воздушный поток достигает 57,3 CFM, а уровень шума колеблется в районе 8-30 дБА. Как и в случае с блоком питания Cooler Master MWE Gold 750 Full Modular, вентилятор SF120R RGB должен проработать минимум 160 000 часов.
Радиатор Cooler Master HYPER 212 RGB BLACK EDITION основан на четырех медных теплотрубках, окрашенных в черный цвет. Сверху кулер оснащен довольно красивой пластиной с логотипом компании. В конструкции устройства применяется технология прямого контакта.
Что немаловажно, «Хайпер» имеет довольно тонкий радиатор — поэтому кулер не перекрывает слоты DIMM материнской платы, а это значит, что мы можем устанавливать в систему оперативную память с радиаторами любой высоты. К тому же алюминиевые ребра радиатора Cooler Master HYPER 212 RGB BLACK EDITION крепятся к теплотрубкам очень высоко — устройство не будет конфликтовать с элементами охлаждения материнской платы.
Вентилятор на радиаторе закрепляется при помощи специальных пластиковых рамок — такой тип крепления, на мой взгляд, гораздо удобнее проволочных скоб. Конструкция радиатора устроена так, что мы можем без каких-либо проблем установить второй вентилятор.
Система была собрана в корпусе Cooler Master MasterBox MB520 (MCB-B520-KANN-S0x). Это довольно простое устройство, не имеющее каких-либо наворотов и комплектующееся всего одним вентилятором. Тем не менее перед вами весьма просторное «жилище» для компонентов максимальной сборки. Сразу же отмечу, что в продаже можно встретить четыре версии MasterBox MB520 — боковая стенка у всех из акрила, а вот цвета боковых воздухозаборников на фронтальной панели могут быть разными (к нам приехала версия белого цвета). Еще в продаже существует модель MasterBox MB520 RGB (MCB-B520-KGNN-RGB), которая комплектуется боковой стенкой, выполненной из закаленного стекла, и тремя вентиляторами, оснащенными, как нетрудно догадаться, RGB-подсветкой.
Из пластика у корпуса сделана и передняя панель. Сверху есть пара разъемов USB 3.1 Gen1 A-типа и 3,5-мм вход и выход для подключения микрофона и наушников.
Учтите один момент: вместе с Cooler Master MasterBox MB520 лучше сразу же купить хотя бы еще одну 120-мм крыльчатку, так как по умолчанию в комплекте с устройством идет всего один 120-мм вентилятор, установленный на задней стенке.
Корпус просторный. Так, мы можем установить процессорный кулер высотой до 165 мм, видеокарту длиной до 410 мм и блок питания длиной до 180 мм. При этом Cooler Master MasterBox MB520 позволяет установить различные радиаторы СВО. Например, на переднюю панель поместится хоть 360-мм радиатор, а сверху — 240-мм.
Блок питания устанавливается снизу, он скрыт металлическим забралом. Там же, снизу, расположена корзина для 3,5-дюймовых накопителей — всего их можно установить две штуки. Зато Cooler Master MasterBox MB520 позволяет разместить в различных частях корпуса сразу шесть 2,5-дюймовых запоминающих устройств.
⇡#Методика тестирования и стенд
Помимо Core i7-8700K и Ryzen 7 2700X, были выбраны процессоры-конкуренты, которые тоже вполне подойдут для экстремальной сборки. В первую очередь это восьмиядерный Core i7-9700K, а также Core i9-9900K. Полный список комплектующих, задействованных в тестировании, указан в таблице.
|
Тестовые стенды
|
AMD |
Intel
|Центральный процессор
|AMD Ryzen 7 2700X
|Intel Core i7-8700K
|Intel Core i7-9700K
|Intel Core i9-9900K
|Intel Core i5-9600K
|Охлаждение
|Cooler Master HYPER 212 RGB BLACK EDITION
|Материнская плата
|ASUS ROG STRIX X470-F GAMING
|ASUS ROG STRIX Z390-E GAMING
|Оперативная память
|G.Skill Trident Z F4-3200C14D-32GTZ, DDR4-3200, 2 × 16 Гбайт
|Видеокарта
|AMD Radeon VII
ASUS ROG-POSEIDON-GTX1080TI-P11G-GAMING
ASUS ROG Strix GeForce RTX 2070 OC
ASUS ROG Strix GeForce RTX 2080 OC
ASUS ROG Strix GeForce RTX 2080 Ti OC
|Накопитель
|Samsung 970 PRO MZ-V7P1T0BW, 1 Тбайт
|Блок питания
|Cooler Master MWE Gold 750 Full Modular, 750 Вт
|Корпус
|Cooler Master MasterBox MB520
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|
ПО для видеокарт
|AMD
|19.3.3
|NVIDIA
|419.67
|
Дополнительное ПО
|Удаление драйверов
|Display Driver Uninstaller 17.0.6.1
|Измерение FPS
|Fraps 3.5.99
|FRAFS Bench Viewer
|Action! 2.8.2
|Разгон и мониторинг
|GPU-Z 1.19.0
|MSI Afterburner 4.6.0 Beta11
|
Дополнительное оборудование
|Тепловизор
|Fluke Ti400
|Шумомер
|Mastech MS6708
|Ваттметр
|watts up? PRO
Тестирование проводилось в десяти ААА-проектах. Использовались максимальные или близкие к ним настройки качества графики, а также полноэкранное сглаживание. Испытания различных конфигураций проводились в трех популярных разрешениях. Полный перечень игр и настроек графики приведен в таблице ниже.
|
Игры
|
Название |
Качество графики |
Сглаживание в Full HD, WQHD |
Сглаживание в Ultra HD |
API
|The Witcher III: Wild Hunt, Новиград и окрестности
|Конфигурация — «Запредельное», NVIDIA HairWorks — макс., постобработка — макс., HBAO+
|АА
|АА
|DirectX 11
|GTA V, черта города
|Макс. качество графики, дополнительные настройки качества — вкл., масштаб разрешения изображения — выкл., 16 × AF
|FXAA + 4 × MSAA
|FXAA + 2 × MSAA
|FarCry 5, начало игры, отрезок до падения машины с моста
|Конфигурация — «Максимум», HD-текстуры — выкл.
|TAA
|TAA
|Assassin's Creed Odyssey, остров Кефалиния
|Конфигурация — «Самое высокое»
|Высокое
|Высокое
|Watch_Dogs 2, Сан-Франциско и окрестности
|Конфигурация — «Ультра», HBAO+, тень от объектов в свете фар — 4 машины, HD-текстуры — вкл.
|Временная фильтрация MSAA × 2, SMAA
|Временная фильтрация MSAA × 2, SMAA
|HITMAN 2, миссия «Финишная черта»
|Максимальное качество
|SSAA × 1
|SSAA × 1
|Shadow of the Tomb Raider, начало игры
|Максимальное качество
|SMAAT2x
|SMAAT2x
|DirectX 12
|Deus Ex: Mankind Divided, комплекс «Утулек»
|Максимальное качество
|MSSA × 2
|Без сглаживания
|Battlefield V, миссия «Последний тигр»
|Конфигурация — «Ультра», DXR — выкл.
|TAA High
|TAA High
|Metro Exodus, Волга
|Конфигурация — «Экстрим», NVIDIA HairWorks — вкл., PhysX — выкл., DXR — выкл.
|TAA
|TAA
Производительность систем в играх определялась при помощи хорошо известной программы FRAPS. С ее помощью мы получаем время рендеринга каждого кадра. Затем при помощи утилиты FRAFS Bench Viewer рассчитывается не только средний FPS, но и 99-й процентиль. Использование 99-го процентиля вместо показателей минимального количества кадров в секунду обусловлено стремлением очистить результаты от случайных всплесков производительности, которые были спровоцированы не связанными напрямую с работой основных компонентов платформы причинами.
Как всегда, напоминаю, что в статьях цикла «Оптимальный игровой ПК» рассматривается исключительно игровая производительность сборок, о которых идет повествование. С быстродействием центральных процессоров при выполнении ресурсоемких задач вы с легкостью познакомитесь в наших обзорах — все они находятся в разделе «Процессоры и память».
Даю наводку:
Как я уже сказал, нет особого смысла разгонять такие процессоры, как Ryzen 7 2700X, Core i7-9700K и Core i9-9900K, — они уже «из коробки» работают практически на своем пределе. А вот тот же Core i7-8700K разгонять стоит. Собственно говоря, это мы и сделали — частота шестиядерника была увеличена с 4,3 до 4,7 ГГц.
А еще на графиках ниже вы увидите такие связки, как «Core i7-8700K + GeForce RTX 2080 Ti» и «Ryzen 7 2700X + GeForce RTX 2080 Ti». Протестировав эти конфигурации, мы увидим, у какой платформы выше «запас прочности», ведь максимальная сборка подразумевает долгое и комфортное использование системы с дальнейшим апгрейдом (через 3-4 года) только одной видеокарты.
*На диаграммах для Watch Dogs 2 отсутствуют результаты с видеокартой * *AMD * *Radeon * *VII. Оба стенда демонстрировали аномально низкий * *FPS в этой игре. Смена драйверов и компонентов системы проблему не решила.*
Во-первых, результаты тестирования наглядно показывают, что максимальная сборка состоятельна во всех трех разрешениях. Не зря мы рекомендуем приобретать максимальную сборку тем, кто хочет играть в разрешении 4K, — GeForce RTX 2080 (да и GeForce GTX 1080 Ti до этого) справляется с этой задачей, если не выкручивать в проектах вроде Deus Ex: Mankind Divided, GTA V и Shadow of the Tomb Raider сглаживание. Впрочем, учтите, что минимальный фреймрейт в 30-40 FPS можно назвать лишь условно комфортным. Есть геймеры, которым необходимо иметь стабильно высокий FPS, — таким пользователям придется снижать или разрешение, или качество графики.
Во-вторых, в разрешении Full HD наблюдается так называемый эффект процессорозависимости. Особенно сильно он проявляется в конфигурации с чипом Ryzen 7 2700X и с видеокартой GeForce RTX 2080 Ti. Доходит до того, что стенд с самым быстрым GeForce-адаптером оказывается не быстрее аналогичной системы, но с GeForce RTX 2080. Этот факт дает нам право заявлять, что платформа LGA1151-v2 и Core i7-8700K (Core i7-9700K) лучше подходят для игр. И пусть в 4K-разрешении максимальные сборки AMD и Intel демонстрируют практически одинаковые результаты, но с появлением следующего поколения игровых ускорителей разница в быстродействии появится и здесь.
Правда, стоит учитывать, что Ryzen 7 2700X стоит меньше 6- и 8-ядерных процессоров Intel. Плюс этот процессор отлично проявляет себя в других задачах, не связанных с развлечениями. Уверен, наши читатели самостоятельно расставят для себя приоритеты.
В-третьих, GeForce RTX 2080 в максимальной сборке в 2019 году смотрится предпочтительнее Radeon VII. Возможно, кто-то подумает, что эта статья вышла с запозданием, но я так не считаю. Именно сейчас, в апреле, мы можем беспрепятственно купить и GeForce RTX 2080, и Radeon VII. Возможно, наличие у «семерки» дополнительной видеопамяти скажется на положении дел в будущем, но, полагаю, это случится не в этом году — и даже не в следующем. А пока Radeon VII в некоторых играх уступает даже хорошо разогнанной на заводе GeForce RTX 2070.
Наконец, в-четвертых, Core i7-9700K в играх действительно смотрится лучше Core i7-8700K. Но это «лучше» проявляется в основном в разрешении Full HD, при этом разница в FPS не такая уж и существенная, да и 6-ядерный Coffee Lake всегда можно разогнать.
*Выражаем благодарность компаниям * *ASUS, * *Cooler * *Master, а также компьютерному магазину «Регард» за предоставленное для тестирования оборудование.* |
985,562 | Материнская плата Gigabyte Z390 Designare: когда нужно не «шашечки», а ехать | Ассортимент материнских плат компании Gigabyte на базе Intel Z390 Express представлен сразу пятнадцатью моделями: от бюджетной Z390 UD до бескомпромиссной Aorus Xtreme Waterforce 5G. Костяк этого набора составляют платы серии Aorus, а для менее требовательных и обеспеченных игроков предлагается три платы серии Gaming. Особняком стоит плата Gigabyte Z390 Designare, представляющая собой компромисс между функциональными возможностями и стоимостью.
Поначалу нам вообще было непонятно, зачем выпускать Designare, если уже есть близкая к ней по возможностям и стоимости Aorus Master. Но при детальном рассмотрении выясняется, что это всё-таки разные платы, поэтому смысл в изучении и тестировании Designare определённо есть. Кроме того, плата нам преподнесла приятный сюрприз. Обо всём этом мы расскажем вам в сегодняшнем материале.
⇡#Технические характеристики и стоимость
|
Поддерживаемые процессоры |
Процессоры Intel Core i9 / Core i7 / Core i5 / Core i3 / Pentium / Celeron в исполнении LGA1151 восьмого и девятого поколения микроархитектуры Core
|
Чипсет |
Intel Z390 Express
|
Подсистема памяти |4 × DIMM DDR4 небуферизованной памяти объёмом до 128 Гбайт;
двухканальный режим работы памяти;
поддержка модулей с частотой 4266(O.C.)/4133(O.C.)/4000(O.C.)/3866(O.C.)/3800(O.C.)/
3733(O.C.)/3666(O.C.)/3600(O.C.)/3466(O.C.)/3400(O.C.)/3333(O.C.)/3300(O.C.)/3200(O.C.)/
3000(O.C.)/2800(O.C.)/2666/2400/2133 МГц;
поддержка модулей ОЗУ DIMM 1Rx8/2Rx8 без ECC и буферизации (функционируют в режиме non-ECC);
поддержка non-ECC DIMM-модулей без буферизации 1Rx8/2Rx8/1Rx16;
поддержка Intel XMP (Extreme Memory Profile)
|
Графический интерфейс |Интегрированное графическое ядро процессора позволяет использовать порты HDMI версии 1.4 и Display Port версии 1.2 (только на вход);
контроллер Intel Thunderbolt™ 3;
поддерживаются разрешения до 4K включительно (4096 × 2304 при 60 Гц);
максимальный объём разделяемой памяти – 1 Гбайт
|
Разъёмы для плат расширения |3 слота PCI Express x16 3.0, режимы работы x16, x8/x8, x8/x4/x4;
2 слота PCI Express x1, Gen 3
|
Масштабируемость видеоподсистемы |NVIDIA 2-way SLI Technology;
AMD 2-way/3-way CrossFireX Technology
|
Интерфейсы накопителей |Чипсет Intel Z390 Express:
– 6 × SATA 3, пропускная способность до 6 Гбит/с;
– поддержка RAID 0, 1, 5 и 10, Intel Rapid Storage, Intel Smart Connect Technology и Intel Smart Response, NCQ, AHCI и Hot Plug;
– 2 × M.2, пропускная способность каждого до 32 Гбит/с (оба разъёма поддерживают SATA- и PCI Express-накопители длиной от 42 до 110 мм);
– поддержка технологии Intel Optane Memory
|
Сетевые интерфейсы |2 гигабитных сетевых контроллера: Intel I219-V (10/100/1000 Мбит) и Intel I211-AT;
беспроводной контроллер Intel CNVi 802.11a/b/g/n/ac 2 × 2 Wave 2: диапазон частот 2,4 ГГц и 5 ГГц, поддержка Bluetooth 5, беспроводного стандарта связи 11ac (160-МГц диапазон, пропускная способность до 1,73 Гбит/с)
|
Аудиоподсистема |Экранированный 7.1-канальный HD-аудиокодек Realtek ALC1220-VB;
соотношение «сигнал – шум» на линейном аудиовыходе 114 дБ, а на линейном входе – 110 дБ;
звуковые конденсаторы Nichicon fine gold (7 шт.) и WIMA (4 шт.);
поддержка USB DAC-UP 2;
изолированная от PCB звуковая карта
|
Интерфейс USB |Чипсет Intel Z390 Express:
– 4 порта USB 2.0/1.1 (2 на задней панели, 2 подключаются к разъёмам на системной плате);
– 6 портов USB 3.1 Gen 1 (4 на задней панели, 2 подключаются к разъёмам на системной плате);
– 2 порта USB 3.1 Gen 2 (на задней панели платы, Type-A);
– 1 порт USB 3.1 Gen 2 (подключается к разъёму на системной плате).
Чипсет Intel Z390 Express + контроллер Intel Thunderbolt 3:
– 2 порта USB 3.1 Gen 2 (на задней панели платы, оба Type-C)
|
Разъёмы и кнопки на задней панели |Два порта USB 2.0/1.1 и комбинированный PS/2-порт;
видеовыходы HDMI и DisplayPort;
два коннектора для антенн беспроводного модуля связи (2T2R);
два порта USB 3.1 Gen 2 Type-A и два порта USB 3.1 Gen 2 Type-C;
два порта USB DAC-UP 2 и сетевая LAN-розетка RJ-45;
два порта USB 3.1 Gen 1 Type-A и сетевая LAN-розетка RJ-45;
1 оптический выход S/PDIF-интерфейса;
5 3,5-мм аудиоразъёмов
|
Внутренние разъёмы на текстолите |24-контактный разъём питания ATX;
8-контактный разъём питания ATX 12 В;
4-контактный разъём питания ATX 12 В;
6-контактный разъём питания OC PEG;
6 SATA 3;
2 M.2;
4-pin разъём для вентилятора CPU с поддержкой PWM;
4-pin разъём для помпы СЖО;
3 4-pin разъёма для корпусных вентиляторов с поддержкой PWM;
разъём для подключения RGB LED-линеек;
группа разъёмов для передней панели;
разъём аудио для передней панели;
разъём USB 2.0/1.1 для подключения 2 портов;
разъём USB 3.1 Gen 1 для подключения 2 портов;
разъём USB 3.1 Gen 2 для подключения 1 порта Type-C;
перемычка Clear CMOS;
разъём S/PDIF
|
BIOS |2 × 128 Мбит AMI UEFI BIOS с мультиязычным интерфейсом и графической оболочкой;
поддержка технологии DualBIOS;
совместимость с ACPI 5.0;
поддержка PnP 1.0a;
поддержка SM BIOS 2.7;
поддержка DMI 2.7;
поддержка WfM 2.0
|
Контроллер I/O |iTE I/O Controller Chip IT8688E
|
Фирменные функции, технологии и особенности |
APP Center:
– 3D OSD;
– @BIOS;
– Ambient LED;
– Auto Green;
– Cloud Station;
– EasyTune;
– Easy RAID;
– Fast Boot;
– Game Boost;
– Platform Power Management;
– RGB Fusion;
– Smart Backup;
– Smart Keyboard;
– Smart TimeLock;
– Smart HUD;
– System Information Viewer;
– Smart Survey;
– USB Blocker;
– USB DAC-UP 2;
Q-Flash; Xpress Install
|
Форм-фактор, габариты (мм) |ATX, 305 × 244
|
Поддержка операционной системы |Windows 10 x64
|
Гарантия производителя , лет |3
|
Минимальная розничная стоимость, ₽ |
18 500
Коробка, в которой поставляется Gigabyte Z390 Designare, оформлена в собственном исключительном стиле. Другую такую упаковку в серии материнских плат на Intel Z390 у Gigabyte вы не найдёте. Понятно – раз плата особенная, то и упаковка для неё должна быть необычной. Выглядит она стильно и предоставляет пользователю исчерпывающую информацию о продукте.
В основной коробке плата размещена на дополнительном картонном поддоне и запечатана в антистатический пакет. Под этим поддоном находятся два отсека для аксессуаров. В первом можно найти две пары SATA-кабелей, кабель для интерфейса Thunderbolt 3, антенну беспроводного модуля связи, винты для закрепления накопителей в портах M.2, а также колодку для удобного подключения кабелей передней панели корпуса к плате.
Кроме того, в комплект поставки платы входят полная и краткая инструкции по эксплуатации, памятка по установке видеокарт и диск с драйверами и утилитами.
Страной производства платы является Тайвань (всего у компании там две фабрики). Стоимость Gigabyte Z390 Designare в российских магазинах начинается с 18,5 тысяч рублей. На плату предоставляется фирменная трёхлетняя гарантия.
Оформление Gigabyte Z390 Designare выполнено в спокойных и выдержанных тонах. На почти чёрном текстолите закреплены пластиковый кожух и радиаторы.
Последние выполнены в едином «рубленом» стиле и делают плату визуально интересной и современной. На радиаторе чипсета нанесено название модели платы, которое подсвечивается.
Размеры Gigabyte Z390 Designare составляют 305 × 244 мм, стандарт – ATX. Особенности компонентов новой материнской платы приведены на следующей схеме.
Для более детального знакомства с ними мы приведём ещё и схему платы из инструкции по эксплуатации.
Пластина интерфейсной панели здесь встроенная, а из-за обилия разъёмов на ней практически не осталось свободного места.
На неё выведены два разъёма антенн модуля беспроводной связи, десять портов USB разных типов, комбинированный PS/2-порт, видеовыходы HDMI и Display Port, два сетевых гнезда RJ-45, оптический выход и пять аудиоразъёмов.
Как и в платах Gigabyte серии Aorus, в текстолите Designare используются медные слои удвоенной толщины, а в зоне цепей питания центрального процессора применена двойная медная подложка увеличенной площади, за счёт чего достигается повышенная стабильность и более комфортный температурный режим компонентов. Всё это входит в фирменную концепцию Ultra Durable.
Процессорный разъём LGA1151-v2 не имеет каких-либо особенностей, и в него можно установить любые процессоры Intel микроархитектуры Core восьмого и девятого поколения.
Система питания на плате реализована по схеме 12+1 и состоит из сборок DrMOS. Двенадцать компонентов базируются на элементах SiC634 (50А) производства Vishay Intertechnology, а ещё одна фаза, отведённая на встроенное в процессор графическое ядро, – на SiC620A (60 А).
На обратной стороне распаяны удвоители Intersil ISL6617. Управление питанием реализовано PWM-контроллером Intersil ISL69138.
То есть в целом можно сказать, что Gigabyte Z390 Designare получила весьма мощную систему питания процессора, хотя плата и не позиционируется как устройство для оверклокинга.
Питание к плате и её компонентам поступает через три разъёма с 24 и с 8+4 контактами.
Все разъёмы оснащены иглами повышенной плотности, но металлизированную оболочку получил только восьмиконтактный разъём питания.
Кристалл чипсета Intel Z390 на плате Gigabyte контактирует со своим радиатором через термопрокладку. Знаю, что некоторые пользователи заменяют эти термопрокладки на чипсетах термопастой, но в данном случае это бессмысленно.
На плате четыре слота DIMM оперативной памяти стандарта DDR4. Все они имеют оболочку из нержавеющей стали Ultra Durable Memory Armor, которая не только усиливает эти разъёмы механически, но и защищает контакты в них от электромагнитных помех.
Общий объём оперативной памяти, устанавливаемой в Gigabyte Z390 Designare, может достигать впечатляющих 128 гигабайт. Максимальная поддерживаемая частота заявлена на отметке 4266 МГц, но в BIOS платы можно выбрать значения и выше, была бы такая память в наличии. Поддерживаются профили XMP и огромный перечень выпускаемых модулей и комплектов из них. Добавим здесь, что система питания памяти двухканальная.
Gigabyte Z390 Designare оснащена пятью слотами PCI-Express. Три из них выполнены в конструктивном исполнении x16 и имеют металлическую оболочку Ultra Durable PCIe Shield, усиливающую их на излом в 1,7 раза и в 3,2 раза на выдёргивание.
Первый слот подключён к процессору и может предоставить видеокарте все 16 линий PCI-Express. Второй и третий слоты способны работать только в режимах x8 и x4 соответственно, поэтому из мультипроцессорных графических технологий поддерживается NVIDIA 2-way SLI или AMD 2-way/3-way CrossFireX. За переключение режимов работы слотов отвечают мультиплексоры ASM1480 производства ASMedia.
Добавим, что для карт расширения у Designare предусмотрены два слота PCI Express x1 с закрытыми торцами.
Плата оснащается шестью стандартными портами SATA с пропускной способностью до 6 Гбит/с, которые реализованы возможностями набора системной логики Intel Z390 и распаяны в горизонтальной ориентации.
Слева от них можно увидеть шестиконтактный разъём питания, который рекомендуется задействовать при использовании трёх видеокарт на плате.
В отличие от флагманских плат серии Aorus, у Z390 Designare только два, а не три порта M.2 с пропускной способностью до 32 Гбит/с. Зато в каждый порт могут устанавливаться накопители длиной до 110 мм (22110) с интерфейсом как PCI-E, так и SATA.
Оба порта оснащены пластинами-радиаторами Thermal Guard с термопрокладками, исключающими проявление последствий троттлинга SSD при продолжительных нагрузках.
К сожалению, ограничения набора системной логики Intel Z390 не позволят задействовать все порты для накопителей одновременно. Возможности совместного использования накопителей на плате Gigabyte Z390 Designare приведены в двух следующих таблицах.
Как видим, если сразу в оба порта М.2 будут установлены накопители с интерфейсом PCI-Express, то аппаратно будут отключены порты SATA3 0, SATA3 4 и SATA3 5. Впрочем, трёх оставшихся портов SATA3, на наш взгляд, вполне достаточно для любой рабочей или игровой станции. Хотя в будущих наборах системной логики Intel хотелось бы больше не сталкиваться с подобными ограничениями.
Общее количество портов USB на Gigabyte Z390 Designare равно 15. На заднюю панель выведены сразу 10 портов, в числе которых два USB 2.0, четыре USB 3.1 Gen 1 и четыре USB 3.1 Gen 2. Внутренние порты представлены парой USB 2.0, двумя USB 3.1 Gen 1 и одним USB 3.1 Gen 2 Type-C для передней панели корпуса системного блока.
Все USB-порты реализованы возможностями чипсета Intel Z390 и хаба RTS5411 производства Realtek.
Отличительной особенностью Gigabyte Z390 Designare является наличие интерфейса Thunderbolt 3 с пропускной способностью 40 Гбит/с. Он реализован микросхемой-контроллером Intel JHL7540.
С помощью двух микросхем TPS65983BA производства Texas Instruments и короткого кабеля-переходника, входящего в комплект, данный контроллер организует вывод видеосигнала с видеокарты на порты USB 3.1 Type C с разрешением до 4K.
Gigabyte Z390 Designare оснастили сразу двумя проводными сетевыми контроллерами: гигабитными Intel I219-V и I211-AT c поддержкой технологии cFosSpeed.
Кроме них на плате установлен контроллер Intel Wireless-AC 9560 с поддержкой беспроводных интерфейсов 802.11a/b/g/n/ac и Bluetooth 5.
Контроллером поддерживаются частоты 2,4 ГГц, 5 ГГц и стандарт связи 2 × 2 802.11ac Wave 2, когда в 160-МГц диапазоне пропускная способность сети может достигать 1,73 Гбит/с.
В основе аудиотракта платы лежит 7.1-канальный HD-кодек Realtek ALC1220-VB, экранированный металлической крышкой.
Компанию ему составляют два типа аудиофильских конденсаторов японского производства: Nichicon Fine Gold (7 шт.) и WIMA FKP2 (4 шт.).
Кроме того, аудиозона изолирована от остальных элементов на текстолите токонепроводящими полосками, а левый и правый каналы разведены в разных слоях текстолита. Однако, в отличие от старших плат серии Aorus, у Designare нет ЦАП ESS SABRE и позолоченных аудиоразъёмов.
Функции Super I/O и мониторинга на плате реализованы контроллером IT8688E.
Возможности мониторинга и управления вентиляторами на Gigabyte Z390 Designare сравнительно скромные: лишь 5 коннекторов для вентиляторов с поддержкой ШИМ-управления и 6 температурных сенсоров.
Индикатора POST-кодов на плате нет, его роль частично играют четыре светодиода CPU/DRAM/VGA/BOOT в правом нижнем углу текстолита.
Подсветкой наделены зона кожуха интерфейсной панели, разграничительные полоски аудиотракта и радиатор чипсета.
Для подключения светодиодных лент подсветки есть только один разъём без адресации мощностью до 2А. Длина ленты не должна превышать 2 метров. Регулировка цвета подсветки и режимов её работы доступна как через BIOS, так и через приложение Gigabyte RGB Fusion.
Gigabyte Z390 Designare получила две 128-битных микросхемы BIOS.
Поддерживается технология автоматического восстановления повреждённой микросхемы из резервной — DualBIOS.
Из разъёмов на нижней кромке текстолита платы вряд ли можно отметить что-то особенное.
Несмотря на тот факт, что плата не позиционируется как оверклокерская, система охлаждения у неё довольно продуманная. На VRM-цепях установлены два алюминиевых радиатора, соединённые 6-мм тепловой трубкой, а чипсет охлаждается большим плоским радиатором.
Про пластины-радиаторы для накопителей в портах M.2 мы уже упоминали выше. Добавим, что в процессе знакомства с Gigabyte Z390 Designare мы не выявили даже несерьёзных недостатков в плане качества или компоновки. Всё удобно, продуманно и надёжно. Теперь перейдём к её программной составляющей.
На момент подготовки статьи про Gigabyte Z390 Designare последней доступной версией BIOS была F6 от 15 марта 2019 года. На ней мы и тестировали данную плату. Старт оболочки в режиме EZ Mode уже является привычным для всех новых плат Gigabyte. Благо в BIOS есть настройка, позволяющая установить расширенный режим в качестве выбора по умолчанию, что мы и рекомендуем сделать.
Дизайн BIOS платы Designare не отличается от того, что мы встречали у плат серии Aorus. Он является полной копией оболочки плат Aorus и содержит семь основных разделов.
Мы всё это неоднократно изучали, поэтому остановимся только на ключевых моментах, а заодно сразу на скриншотах приведём настройки, которые мы использовали при разгоне.
Отметим, что платой поддерживаются восемь уровней стабилизации напряжения на ядре процессора (LLC).
Что касается самих напряжений, то мы приведём их в следующей таблице с границами изменений и шагом.
|
Напряжение |
Минимальное значение, В |
Максимальное значение, В |
Шаг
|
CPU V Core |1,100
|1,800
|0,005
|
CPU VAXG |0,500
|1,500
|0,005
|
CPU VCCIO |0,800
|1,500
|0,010
|
CPU System Agent |0,800
|1,500
|0,010
|
V СС Substained |0,800
|1,500
|0,010
|
V СС PLL |0,800
|1,500
|0,010
|
VCC PLL OC |0,810
|3,010
|0,010
|
VCC VTT |0,800
|2,000
|0,010
|
VCC DMI_PEG |0,800
|2,000
|0,010
|
PCH Core |0,800
|1,300
|0,010
|
DRAM |1,000
|2,000
|0,010
|
DRAM Training |1,000
|2,000
|0,010
|
DRAM VPP |1,980
|3,020
|0,040
|
DRAM Termination |0,510
|1,133
|0,005/0,006
Как видим, набор более чем исчерпывающий, особенно если учесть тот факт, что плата не позиционируется производителем как оверклокерская.
Каждый из пяти подключённых к плате вентиляторов может быть настроен индивидуально напряжением или ШИМ по кривой зависимости количества оборотов от температуры с помощью встроенной утилиты Smart Fan 5. При этом предусмотрена удобная функция, когда кривая настраивается только для одного вентилятора (например – процессорного), но заданный алгоритм используется и для всех остальных вентиляторов.
Как обычно, при выходе из BIOS отображаются все изменения, внесённые в процессе его настройки. Каких-либо претензий к работе оболочки платы Gigabyte Z390 Designare у нас нет.
Проверка стабильности, оверклокерского потенциала и производительности материнской платы Gigabyte Z390 Designare была проведена в закрытом корпусе системного блока при температуре в помещении около 25 градусов Цельсия. Конфигурация тестового стенда состояла из следующих комплектующих:
Тестирование было проведено под управлением операционной системы Microsoft Windows 10 Pro (1809 17763.379) с установкой следующих драйверов:
Стабильность системы при разгоне мы проверяли стресс-утилитой Prime95 29.4 build 8 и другими бенчмарками, а мониторинг проводился с помощью HWiNFO64 версии 6.03-3710.
Перед тестированием приведём характеристики платы из утилиты AIDA64 Extreme.
Материнские платы всех известных производителей на чипсете Intel Z390 работают при автоматических настройках BIOS вполне корректно, не завышая напряжение на ядре и не перегревая процессор, как это было на отдельных моделях с Intel Z270 и почти на всех платах с Intel Z170. Не стала исключением и Gigabyte Z390 Designare, запуск и работа на автоматических настройках BIOS для которой не являются проблемой.
Процессор работал на частотах от 4,3 до 4,7 ГГц, а его напряжение изменялось от 0,660 до 1,308 В, но в нагрузке стабилизировалось на 1,116 В. В результате температуры процессора под Prime95 находились на сравнительно низких значениях (65 градусов Цельсия в пике нагрузки), а вентиляторы суперкулера даже не раскручивались в полную силу.
Температура элементов цепей VRM не превысила отметку 59 градусов Цельсия, то есть пока в номинальном режиме работы радиаторы на цепях VRM отрабатывают свою задачу отлично. Посмотрим, что будет в разгоне.
Данный экземпляр процессора Intel Core i7-8700K мною был ранее протестирован на трёх платах Gigabyte Z390 Aorus: Master, Pro и Extreme. Поэтому основные параметры разгона уже были известны, что значительно сократило время на поиск стабильных частоты и напряжения. Сначала плата смогла уверенно обеспечить процессору стабильность на частоте 4,9 ГГц при напряжении 1,245 В и LLC Turbo.
Удивительно, что при одинаковых условиях и идентичной тестовой конфигурации на Designare процессор работал при меньших температурах – всего 82 градуса Цельсия по наиболее горячему ядру. Максимальная температура VRM цепей по встроенному датчику платы не превысила отметку 66 градусов Цельсия.
Это уже очень неплохой результат, но раз у нас такой запас по температурам, то почему бы не попробовать 5,0 ГГц? Сказано – сделано, правда пришлось повысить напряжение до 1,315 В при том же уровне стабилизации.
При этом мы наблюдали температуры процессора примерно на 4-5 градусов Цельсия ниже, чем на плате Gigabyte Aorus Z390 Xtreme. Поэтому можно сказать, что, несмотря на не оверклокерский статус, новая Gigabyte Z390 Designare готова выжать из процессора ничуть не меньше, чем платы серии Aorus, включая втрое более дорогую версию Xtreme. Добавим, что VRM-цепи при таком разгоне прогрелись всего до 70 градусов Цельсия. Конечно, если использовать более горячий Intel Core i9-9900K, то температуры VRM будут выше, но даже если они вырастут на 15-20 градусов Цельсия, то и этого с запасом хватает как для работы в номинальном режиме, так и для разгона.
В заключение отметим, что двухканальный комплект GeIL Super Luce RGB с номинальной частотой 3,0 ГГц на данной плате стабильно заработал на 3,2 ГГц (3,333 ГГц – без стабильности), однако мы выбрали вариант с разгоном до 3,1 ГГц, но при более агрессивных таймингах. Итоговый результат приведён на скриншоте.
За неделю до тестов Gigabyte Z390 Designare мне довелось ещё раз перетестировать плату Gigabyte Z390 Aorus Master, на которой процессор был разогнан до тех же 5,0 ГГц, а все другие параметры разгона, включая частоту Uncore (4,7 ГГц), минусовый множитель для AVX-инструкций (3) и субтайминги оперативной памяти, были идентичны параметрам разгона на Designare. Что интересно, эти две платы стоят одинаково, но Aorus Master позиционируется как игровая и оверклокерская, а Designare – как самодостаточная платформа для рабочей станции. Иначе говоря, Aorus Master как минимум не имела права уступить Designare по производительности, но на деле всё вышло несколько иначе. Посмотрим на результаты.
|
Gigabyte Z390 Designare Intel Core i7-8700K @5,0 ГГц DDR4 2 × 8 Гбайт GeIL Super Luce RGB 3,1 ГГц 16-18-18-3 4 CR 1 |
Gigabyte Z390 Aorus Master Intel Core i7-8700K @5,0 ГГц DDR4 2 × 8 Гбайт GeIL Super Luce RGB 3,1 ГГц 16-18-18-36 CR 1
|
AIDA64 Extreme 5 cache & memory benchmark
|
WinRAR 5.70 x64
|
7-Zip 19 . 00 x64
|
HWBOT x265 v2.2.0
|
EZ CD Audio Converter (FLAC в MP3 320 Кбит / с )
|
Blender 2.80 beta
|
Corona 1.3 Benchmark
|
CINEBENCH R20 x64
|
3DMark 2.8.6546 64, Time Spy CPU test
Производительность одинаковых конфигураций на двух этих платах оказалась равна в операциях работы с оперативной памятью, тестах HWBOT x265, EZ CD Audio Converter, трёх программах рендеринга и 3DMark. Однако в архиваторах WinRAR и 7-Zip скромная Gigabyte Z390 Designare одержала убедительные победы, поэтому можно сказать, что по производительности она ничуть не уступает агрессивной Gigabyte Z390 Aorus Master.
Подводя итог обзору и тестированию Gigabyte Z390 Designare, на наш взгляд, сначала ст
**о**ит резюмировать её отличия от плат серии Aorus, моделей Master/Ultra, которые предлагаются за практически такую же стоимость. Перечислим их:
Как видим, есть и плюсы, и минусы. Но прежде всего здесь нужно понимать, что Designare – плата в первую очередь для создания производительной рабочей станции, тогда как Aorus Master/Ultra предназначены преимущественно для игровых систем и разгона. При этом Designare не уступает им по мощности силовой цепи питания процессора и, как мы с вами сегодня убедились, разгоняет процессоры ничуть не хуже, включая эффективное охлаждение элементов VRM.
Из недочётов мы можем отметить только отсутствие индикатора POST-кодов – всё же он куда информативнее, чем четыре светодиода. В остальном же Gigabyte Z390 Designare оставила исключительно позитивное впечатление. |
985,598 | Linux для новичков: знакомимся с Linux Mint 19. Часть 2: как настроить… | *Напоминаем, что попытки повторить действия автора могут привести к потере гарантии на оборудование и даже к выходу его из строя. Материал приведен исключительно в ознакомительных целях. если вы собираетесь воспроизводить действия, описанные ниже, настоятельно советуем внимательно прочитать статью до конца хотя бы один раз. Редакция 3DNews не несет никакой ответственности за любые возможные последствия.*
Предварительно сделаем несколько замечаний. Во-первых, как и прошлый материал, посвященный установке Linux Mint 19 по соседству с Windows 10, этот ориентирован на начинающих пользователей, то есть будет содержать как можно меньше всяких технических заморочек. Даже к терминалу (консольному интерфейсу) обращаться не будем. Это все-таки не руководство пользователя, а вводный материал для тех, кто только знакомится с ОС. Во-вторых, для простоты раздел
*Параметры системы* — серая иконка с двумя переключателями в главном меню — будем называть панелью управления. В-третьих, для многих действий нужно будет дополнительно вводить пароль пользователя в отдельном окне с заголовком *Аутентифицировать*. Так вот, отдельно про это каждый раз упоминать не будем. В процессе настройки можно не опасаться ввода пароля, а вот в «свободном плавании» обращайте внимание, что и почему спрашивает у вас пароль для выполнения административных действий.
В данном материале мы рассмотрим параметры экрана и шрифтов, настроим клавиатуру и переключение раскладки, пробежимся по настройкам сети и брандмауэра, ознакомимся с работой Bluetooth и звука, установим МФУ и драйверы для видеокарт, разберемся с поиском и инсталляцией программ, научимся работать с файлами и дисками, а также чуть-чуть настроим ОС. Итак, в прошлый раз все закончилось на приветственном диалоге. С ним и продолжим работу.
⇡#Базовая настройка Linux Mint 19
Ко второму пункту приветственного диалога — менеджеру драйверов — отдельно вернемся чуть позже, когда будем рассматривать установку дискретных видеокарт AMD и NVIDIA. Впрочем, там ничего сложного нет, так как при наличии разных вариантов драйверов можно выбрать проприетарный от производителя или открытый. Так что перейдем к следующему пункту, то есть к менеджеру обновлений. Здесь опять-таки ничего сложного нет: наверху есть кнопочки для проверки обновлений, для выбора всех апдейтов и для установки оных. В случае предполагаемой инсталляции критически важных для ОС компонентов (обновлений ядра, например) будет выведено отдельное предупреждение.
При первом запуске также будет предложено выбрать локальные зеркала для обновлений: надо кликнуть на адреса, после чего откроется окно, где будет измерена скорость скачивания с различных серверов. Можно ничего не трогать и оставить все как есть, а можно выбрать наиболее быстрый вариант. Кроме того, после первого запуска в области уведомлений появится иконка менеджера обновлений в виде щита, которая будет напоминать о наличии новых апдейтов.
Следующий пункт с настройкой вида рабочего стола меняйте на свой вкус. По умолчанию используется стиль «Модерн», близкий к оформлению современных версий Windows. В настройках системы на начальном этапе достаточно поменять два параметра. Во-первых, выбрать подходящее разрешение экрана, если оно вас не устраивает. Во-вторых, настроить переключение раскладок клавиатуры. И то и другое делается в соответствующих пунктах раздела
*Оборудование*. С параметрами экрана и так все понятно, а вот для клавиатуры в разделе *Раскладки* надо кликнуть на кнопку *Параметры…*, найти пункт для переключения раскладки и выбрать подходящее клавиатурное сокращение: Alt+Shift, например, ни с какими другими комбинациями не конфликтует.
Там же можно убедиться, что выбранные раскладки совпадают с теми, что действительно присутствуют на вашей клавиатуре. Обратите внимание, что в Linux традиционно дополнительные клавиши именуются иначе. Клавиша Windows обычно называется Super, а правый Alt (Gr) может быть Meta✴. Так что не удивляйтесь тому, что на соседней вкладке
*Комбинации клавиш* будут встречаться сочетания с их упоминанием. Часть комбинаций совпадает с таковыми в Windows, но в Linux, во-первых, их гораздо больше и, во-вторых, все их можно перенастроить на свой вкус. Мультимедийные клавиши для управления плеером или запуска браузера/почты/поиска по большей части работают, что называется, из коробки. В том числе в виде сочетаний с Fn, что актуально для ноутбуков или компактных клавиатур.
Опционально можно настроить еще пару параметров, связанных с отображением содержимого на экране. Во-первых, в разделе
*Общие* есть простой выбор метода масштабирования интерфейса системы, который пригодится для некоторых современных мониторов с высоким разрешением. Там же имеется опция включения VBlank — она нужна для старых мониторов. Во-вторых, в разделе *Выбор шрифтов* стоит отметить желаемые шрифты (про установку новых поговорим чуть ниже), поиграться с параметрами сглаживания и хинтинга, если текущий вид текста на экране не устраивает. Там же настраивается и масштабирование текста, которое влияет и на отображение элементов интерфейса.
Тут важно отметить еще несколько особенностей. Настройки шрифтов, масштабирования и в принципе оформления элементов интерфейса могут работать не для всех приложений. Это связано и с тем, что некоторые программы (браузер, например) занимаются отрисовкой самостоятельно, и с тем, что вам в работе могут попасться утилиты, созданные с помощью других наборов библиотек и компонентов для построения графических интерфейсов. Они будут выглядеть иначе.
Настраивать сетевые подключения вряд ли придется, так как, скорее всего, нормально заработают и проводное, и беспроводное соединения. Возможно, понадобятся некоторые дополнительные действия, если сеть заработает не на полной скорости или, например, без DHCP. Добраться до настроек можно, кликнув на иконку с тремя блочками в области уведомлений. В меню есть два пункта:
*Параметры сети* и *Сетевые соединения*. Первый позволяет узнать основные сведения о подключениях и настроить базовые параметры IP и прокси.
Второй пункт дает доступ к дополнительным настройкам адаптеров. Там же можно кликнуть на кнопочку
*+*, чтобы добавить новое VPN-соединение или задействовать еще один сетевой адаптер. Впрочем, все это вряд ли пригодится. А вот если адаптер вообще не виден в системе, то тут придется идти на сайт производителя за драйверами и в поисковик, чтобы выяснить порядок установки и настройки. Увы, таков алгоритм для любого «железа», которое автоматически не заработало в системе.
Настройка брандмауэра тоже связана с сетью, но ее рекомендуется отложить на самый конец, когда все ужебудет установлено и заработает как надо. Хотя настраивается он очень просто. В панели управления есть соответствующий пункт:
*Межсетевой экран*. Изначально заведено три профиля: для дома, для рабочего окружения и для общественных мест. Для домашнего профиля по умолчанию все входящие соединения запрещены, а исходящие разрешены. После активации брандмауэра (переключатель *Статус*) на вкладке *Отчет* будет выводиться сетевая активность различных программ. В этом списке можно выделить нужный процесс и нажать внизу кнопку с плюсом, чтобы создать новое правило, — настроек по умолчанию обычно достаточно.
С Bluetooth тоже особых проблем на тестовой системе не возникло. Правда, не стоит забывать, что если устройство обладает какими-то специфичными функциями, то оно не всегда может работать корректно. Ну и какие-то дополнительные корректировки параметров в соответствующих разделах все равно могут понадобиться. Например, для Bluetooth-колонки в настройках аудио (быстро доступны по клику на иконку с динамиком в области уведомлений) — пришлось выбрать ее в качестве устройства для вывода звука, что совершенно логично. К слову, в тех же настройках есть еще пара полезных функций. На вкладке
*Приложения* можно отрегулировать громкость звука любого приложения или даже вкладок в браузере, которые в данный момент воспроизводят аудио. А на вкладке *Настройки* есть возможность задать лимит громкости для всей ОС.
На этом базовую настройку можно считать законченной. По названиям остальных элементов панели управления можно легко догадаться, за что они отвечают. Отдельно останавливаться на них не будем, так как остальные настройки уже не технические, а скорее вкусовые.
⇡#Установка драйверов в Linux Mint 19
Пользователи оставляют отзывы о работоспособности различного оборудования на сайте сообщества. Обратите внимание, что одно и то же устройство может быть представлено под разными именами, так что лучше попробовать вбить в поиск несколько вариантов названия — от полного имени до индекса модели — и поискать в разных категориях. Вместе с отзывами иногда попадаются и советы по решению некоторых проблем или по настройке. Например, для видавшего виды МФУ Epson Stylus SX125 в базе есть сразу пять записей. Впрочем, с его установкой особых проблем и не возникло. При его подключении к ПК сразу появилось уведомление. Для настройки в панели управления в разделе
*Принтеры* оказалось достаточно кликнуть на кнопку *Добавить*, выбрать устройство в списке и просто следовать указаниям мастера.
Мастер предложит скачать и установить драйверы, в том числе проприетарные. В некоторых случаях драйвера под конкретную модель может не оказаться в наличии, но мастер все равно предложит установить наиболее подходящий. Также стоит помнить о некоторых нюансах. Как правило, Linux-драйверы имеют меньше настроек и возможностей по сравнению с Windows-версиями. В частности, для данного МФУ не работают функции проверки уровня чернил, процедуры очистки и калибровки. Кроме того, те же МФУ представляются именно как принтер и сканер, но вот со сканированием обычно нет никаких проблем, да и отдельно настраивать для него что-то не нужно.
Для видеокарт ситуация особая — будем исходить из принципа «Не навреди!». В случае AMD лучше остановиться на открытых драйверах, а не заниматься установкой проприетарного драйвера вручную, так как в Linux Mint 19 менеджер их все равно не предлагает. Тем более открытая версия устанавливается по умолчанию и нынче не хуже официальной, хотя и лишена некоторых возможностей. Пожалуй, единственное, что стоит добавить на всякий случай, так это поддержку декодирования видео с помощью GPU. Полный список пакетов, которые нужно установить в
*Менеджере программ*, выглядит так: *vdpau-va-driver, vdpauinfo, * *vainfo, mesa-vdpau-drivers, libvdpau-va-gl1* и * xserver-xorg-video-amdgpu, libdrm-amdgpu1*. А в настройках программ после этого убедиться, что аппаратное декодирование активно. Увы, все браузеры для Linux по умолчанию лишены такого счастья, хотя есть инструкции для энтузиастов с «напильником».
Перед установкой или сменой видеокарты можете на всякий случай сделать снимок системы, чтобы, если возникнут затруднения, откатиться к предыдущему состоянию ОС. Отдельно стоит обратить внимание на то, что для корректной работы придется кое-что поменять в BIOS/UEFI. В частности, для тестовой карты AMD пришлось переключиться в режим совместимости CSM, а в случае NVIDIA отключить Secure Boot. Для последних менеджер драйверов рекомендует установить проприетарный драйвер. После инсталляции и перезагрузки в панели управления появляется новый пункт для доступа к расширенным настройкам GPU NVIDIA. Впрочем, если вы не очень понимаете, что там и зачем, то лучше туда и не лезть лишний раз. А завершить этот раздел стоит упоминанием одной общей проблемы, которая иногда возникает в Linux-системах. Речь идет о тиринге, для устранения которого, увы, универсального рецепта нет.
⇡#Поиск и установка программ в Linux Mint 19
Рекомендуемым способом управления софтом в Linux Mint 19 является использование утилиты
*Менеджер программ*, которую можно запустить из приветственного диалога или из главного меню (иконка с девятью точками в зеленом круге). В правом верхнем углу находится поле для поиска, куда можно ввести и название программ, и ключевые слова. Правда, не все ПО имеет описание на русском. Внизу есть кнопочки для перехода к категориям программ, где собраны наиболее популярные утилиты и компоненты системы. Для многих из них есть отзывы пользователей. При установке ПО также может потребоваться доустановить дополнительные компоненты, о чем будет сообщено в начале процесса инсталляции.
Для поиска подходящих альтернатив привычному ПО из Windows лучше всего воспользоваться сайтом AlternativeTo. Впрочем, самые популярные и так зачастую имеют версии для Linux. Например, в качестве медиапроигрывателя подойдет VLC, а браузера — Chrome или Firefox. Ну а нам из обязательных компонентов не помешает установить только два: просто вбейте названия в поиск менеджера программ. Первый — это набор шрифтов из Windows, который поставляется в пакете под именем
*ttf-mscorefonts-installer*. Второй — набор медиакомпонентов и кодеков *mint-meta-codecs*. если при инсталляции Linux Mint имелся интернет-доступ и была включена опция установки стороннего ПО, то этот набор уже должен быть на месте. А если нет, то его стоит доустановить вручную.
Все эти программы устанавливаются из так называемых репозиториев, то есть своего рода хранилищ ПО, наполнением которых занимаются разработчики. Именно их регулярно проверяет
*Менеджер обновлений*. Но есть один нюанс — в репозиториях далеко не всегда присутствуют последние версии программ. Можно также использовать внешние PPA-репозитории, однако новичкам лучше повременить с этим. Кроме того, *Менеджер программ* предлагает программы, упакованные в формате *Flatpak,* — для них есть даже отдельная категория. Это еще один способ распространения ПО в Linux, причем одна и та же программа может быть доступна и в репозитории, и в этом формате. В этом случае лучше выбрать какой-то один вариант установки, чтобы попросту потом не запутаться. Только учтите, что Flatpak-вариант обычно новее, но занимает намного больше места на диске.
Наконец, еще один вариант получения ПО — не самый удобный, но иногда единственно возможный — использование deb-пакетов, то есть своего рода отдельных инсталляторов. Сейчас зачастую при их установке все равно добавляются репозитории разработчиков, так что потом обновления приходят штатным образом. Такие пакеты следует искать только в том случае, когда нужной программы нет в
*Менеджере программ* или если хочется получить самую последнюю версию ПО. Скачивать их стоит только с официальных сайтов. Искать надо версии, для которых явно указана совместимость с Linux Mint. Ну или хотя бы те, что предназначены для Ubuntu или Debian. Впрочем, никакой гарантии, что они будут нормально работать, в этом случае нет.
Что делать, если при установке очередного ПО возникли ошибки? В панели управления, в разделе
*Источники приложений,* на вкладке *Обслуживание,* есть несколько полезных опций. Первым делом стоит попробовать запустить *Исправление проблем списка пакетов*. В редких случаях конфликтов ПО помогает удаление сторонних пакетов. А пункт *Очистка остаточной конфигурации* вычищает ненужные файлы после удаления программ.
Напоследок немного разрозненных рекомендаций, которые должны помочь быстрее освоиться с ОС. Например, для работы с любыми хранилищами данных используется концепция монтирования для подключения и размонтирования (аналог безопасного извлечения) при отключении. Привычных имен дисков и разделов может и не быть, хотя файловый менеджер умеет работать и с томами Windows, и с любыми USB-флешками, и со многими смартфонами. В общем, стоит помнить, что после завершения работы с любым накопителем его надо размонтировать, кликнув в левом меню проводника по иконке в виде подчеркнутой стрелочки около нужного устройства.
В панели управления, в разделе
*Предпочитаемые приложения,* можно переназначить программы, которые будут открывать разные типы файлов. Только учтите, что в Linux-системах тип файла традиционно определяется не по его расширению, а по его содержимому. В том же разделе настраиваются действия по умолчанию при подключении различных съемных накопителей. Ну и раз речь зашла про автозапуск, то в разделе *Автозагрузка* уже после установки всего необходимого ПО стоит проверить, нет ли там ничего лишнего, или, наоборот, не надо ли чего добавить. Например, среди предустановленных программ есть Redshift — аналог известной Windows-утилиты f.lux, которая меняет цветовую температуру экрана в зависимости от времени суток для более комфортной работы за монитором.
На этом, пожалуй, все. Для новичка в Linux Mint представленной информации хватит, чтобы на первых порах разобраться с системой, пообвыкнуться в ней. За дополнительной информацией стоит обратиться к русскоязычному разделу официального форума, одному из неплохих местных тематических форумов, документации и, конечно, поисковикам — только уточняйте в запросе, что речь идет о Linux Mint 19. Обмен опытом в комментариях к данному материалу тоже приветствуется. Мы же на этом не прощаемся и в следующий раз, пожалуй, займемся изучением игровых возможностей Linux. |
985,626 | Во что поиграть в День космонавтики. Лучшие игры о космосе | *— Тимон, ты не спрашивал себя, что это там за мерцающие точки?* *— Там светлячки, которые увязли в этой большой сине-черной штуковине.* *— Да? А я думал, что это пузырьки с горящим газом в миллиардах миль от нас...* *Тимон и Пумба смотрят на звезды, мультфильм «Король-лев»*
Покорение космоса будоражило умы и сердца во второй половине прошлого века. Но сегодня далеко не каждый малыш в детском саду заявит, что собирается стать космонавтом. Тем не менее одного взгляда на современную массовую культуру хватит, чтобы понять: звезды по-прежнему манят. Игровые разработчики обращаются к космической тематике регулярно, количество незаурядных проектов очень велико. Мы — по понятным причинам — не можем рассказать вам о всех, но те игры, о которых пойдет речь — это настоящий космос.
Начнем с истории. Видеоигры по-настоящему вырвались в космос в далеком 1984-м. Тогда британские студенты Дэвид Брэбен и Иэн Белл выпустили для компьютера BBC Micro легендарную
**Elite**. Вскоре игра появилась на большинстве актуальных платформ, включая популярный в Союзе ZX Spectrum. Ничего подобного поклонники цифровых развлечений прежде не видели. Во времена простейших аркад и монструозных автоматов «Морской бой» из парка отдыха они получили (почти) настоящий космический корабль, необъятную галактику и пьянящую свободу. Elite мигом завоевала культовый статус. Обилие возможностей вышибало почву из-под ног неподготовленных геймеров восьмидесятых и начала девяностых. Торговля, пиратство, охота за головами, гиперпрыжки по вселенной и оснащение корабля массой полезных агрегатов — игроки буквально жили в мире Elite. Покупка пульсирующего лазера взамен старой пушки давала ядерный заряд позитива, стыковка с орбитальной станцией становилась настоящим приключением. А каркасная 3D-графика показывала просто невероятные в те годы космические корабли и объекты — пускай без текстур, пускай сквозь них были видны звезды, но ведь трехмерные! По сей день Elite цитируют, копируют и даже продолжают — последняя итерация Elite: Dangerous вышла в прошлом году.
В 1999 году немецкие разработчики из студии Egosoft запустили серию
**Х **— пожалуй, самый толковый последователь Elite. Первая игра — X: Beyond The Frontier стала пусть успешной, но все же пробой пера (проекту не хватало отладки и полировки, а играть порой было попросту неудобно из-за громоздких условностей вроде платных сохранений). Вышедшие позднее X2: The Threat (2003), X3: Reunion (2005) и X3: Terran Conflict (2008) получили признание и критиков, и игроков. Потрясающе красивый космос, огромные корабли, верфи и станции, масса возможностей и необъятное количество контента обеспечили этим играм место среди звезд. Особенностями серии можно обозначить проработанный мир, неплохие сюжеты и уклон в экономику: мы могли выстроить настоящую звездную корпорацию и менять вселенную под себя звонкой монетой. К сожалению, последние две игры франшизы, Rebirth и Foundation, не впечатлили даже преданных фанатов из-за большого количества программных проблем. В космосе не стоит расслабляться...
Еще одно удачное высказывание на тему космического открытого мира и симуляции космолета вышло в 2003-м. Продолжение подзабытой к этому времени Starlancer называлось
**Freelancer**. Во главе команды разработчиков стоял Крис Робертс (тот самый, да), один из отцов-основателей бренда Wing Commander. Даже сегодня, в 2019 году, Freelancer выглядит и играется очень бодро. К проверенной формуле успеха Elite были добавлены такие элементы, как глубокий сюжет о галактической политике и невиданное прежде удобство в управлении звездолетом. Игра не стала аркадной стрелялкой, но теперь можно было вести в бой свой фрегат, не заучивая наизусть десятки клавиш.
Сама суть космического антуража для видеоигры предусматривает размах происходящего, простор для действия и немалый масштаб событий. Поэтому стратегический жанр почувствовал себя в черной бездне особенно комфортно. В 1993-м родилась
**Master** **of** **Orion:** глобальная пошаговая стратегия студии Simtex предлагала возглавить одну из галактических рас и привести ее к процветанию за счет войн, шпионажа, дипломатии или научного превосходства. В Master of Orion представлены колоритнейшие цивилизации: приверженцы тихого внедрения метаморфы дарлоки, лучшие пилоты птицеподобные алкари, неорганические силикоиды и прочие интересные создания. Их в той или иной степени копируют по сей день. А известный писатель-фантаст Сергей Лукьяненко, создатель «Ночного дозора», порадовал поклонников научной фантастики отличным циклом о мире Master of Orion — «Линия грез». Первая и вторая части игры вышли в 1990-х и стали классикой. Третья часть в 2003 году напугала всех серостью и высоким порогом вхождения. А вот четвертая (иногда упоминается с подзаголовком Conquer the Stars) вышла уже в 2016 году. Но это уже не то.
Разговор о космических стратегиях не может обойтись без упоминания
**Homeworld** **Haegemonia** **: ** **Legions** **of** **Iron** (2002), запомнившаяся фантастической картинкой — труд художников и дизайнеров впечатляет и сегодня. Недаром эта история о конфликте Земли и Марса была выпущена для iOS через 12 лет после релиза на ПК. А в серии Endless студия Amplitude успешно продвигает вселенских размеров стратегию **Endless Space**, начавшуюся в 2012 году. Все привычные знатокам элементы, такие как разнообразие доступных цивилизаций, обилие путей развития и конструктор кораблей, выполнены на высочайшем уровне. Endless Space выделяется грамотным и ненавязчивым обучением, что очень важно для подобных игр. Очень хороши художественный дизайн и музыка, но будьте готовы к неспешному темпу покорения вселенной. На безбрежных просторах нет места суете и спешке.
В 2001 году вышла в свет космическая RPG из тех, про которые метко сказано: «Лучшая игра, в которую никто не играл». Дизайнер Wolfenstein 3D и Doom Том Холл представил свое видение детективного нуара среди далеких звезд, с черным юмором, десятком мини-игр и пошаговыми боями —
**Anachronox**. Частный сыщик Сильвестр Бучелли путешествует среди удивительных миров, останавливает вторжение разумного космического улья, открывает тайны Предтеч и пытается отдать долг мафии. В команде единомышленников Бутча числятся такие незаурядные персонажи, как спившийся супергерой и целая планета, уменьшенная до размеров мяча для фитнесса. Сюжет подан отличными роликами на движке, обилие удачных шуток обязательно заставит улыбнуться, а актеры озвучивания просто выше всяких похвал; к добру или к худу, но игру не пытались локализовать.
В 2002 году российская компания Elemental Games выпустила гениальных
**«Космических рейнджеров»**. Взяв за основу пошаговую RPG, разработчики из Владивостока очень аккуратно внедрили в игровой процесс текстовые квесты и 2D-аркаду. Неорганическая раса клисан угрожала галактике, и мы записались в ряды добровольцев-рейнджеров, чтобы остановить нашествие. Получив скромный кораблик, мы оказываемся среди звезд. Уровень свободы — максимальный. Вселенная — огромная, живая и удивительная. Художественный дизайн яркий, электронная музыка отличная. Сюжет уложен в пару строк, но содержит потрясающий финт: клисаны, как оказалось, считали всех живых пилотов на кораблях инфекцией, от которой механизмы тяжело болеют. После нескольких часов геймплея приходило сногсшибательное осознание того, что этот мир живет и меняется сам, а не вертится вокруг игрока. Вы могли не участвовать в войне, а заниматься исследованием/торговлей/пиратством/поручениями и наблюдать, как переходят из рук в руки сектора, как гибнут союзники и взрываются станции, на которых вы привыкли отдыхать и заключать сделки. Космической глубины игра с превосходным сиквелом **«Космические рейнджеры 2: Доминаторы»**. Есть и достойное HD-переиздание.
Масштабная космическая сага
**Halo** стартовала на платформе Xbox в 2001 году. Скептики по сей день высказываются о том, что популярность бренда создана лишь успешным мультиплеером для консольных игроков. Справедливым будет замечание, что вселенная Halo за годы своего развития стала убедительным, проработанным до деталей фантастическим миром. Здесь земляне столкнулись с альянсом инопланетян, чей религиозный фанатизм привел к войне. Вскоре выяснилось, что чужие-ковенанты — не самое страшное из зол. По галактике разносится Потоп, орда всепоглощающих организмов, уродливых и ненасытных. Halo давно вышла за пределы шутеров: появляются проекты разных жанров, издаются сопутствующие книги и комиксы, снимается аниме. Символ Halo — гигантские космические кольца Гало, тайное оружие предтеч. На внутренней стороне такого кольца вполне можно жить, любуясь уходящим в горизонт «обручем».
Канадская BioWare умеет — во всяком случае, раньше умела — работать с космической тематикой, что доказано прекрасной RPG Knights of the Old Republic во вселенной Star Wars. Но в 2007 BioWare взорвала играющее сообщество своей собственной вселенной. В мире
**Mass** **Effect** люди достигли далеких звезд, вошли в содружество разумных рас, но оказались на грани полного уничтожения, когда таинственные Жнецы начали свой крестовый поход против всей разумной жизни в галактике. Дотошная проработка вселенной Mass Effect может служить примером титанического труда сценаристов и дизайнеров. Детально продуманные технологии, расы, культурные особенности, подоплека конфликтов, герои и злодеи, экзотические планеты и океаны космического вакуума, преступные кланы, шпионы и благородные паладины. И сотни увлекательных историй, в которых может принять участие каждый желающий. Да, параллели со «Звездными войнами» провести несложно. Но при этом Mass Effect остается по-настоящему уникальной вселенной.
В 2007 году покорять космос отправился главный водопроводчик игровой индустрии — на консоли Wii вышла
**Super** **Mario** **Galaxy**. Команда создателей решила, что борьба с драконозавром Боузером среди звезд и комет — это, в первую очередь, весело. И выдала нам какое-то невероятное буйство красок, невиданных миров и их невероятных обитателей. Законы физики были отброшены за ненадобностью: Марио летал между галактиками без скафандра, гравитация меняла вектор с переключением особых рычагов, а космический флот Боузера составляли деревянные бригантины с пропеллерами. Фантазия создателей игры с первых минут уносит игрока в космическую даль, и вся многочасовая кампания Super Mario Galaxy — торжество фантастического дизайна. Планета разумных пчел, планета привидений, планета вихрей и планета-свалка: Марио посетил десятки миров, и каждый чем-то да удивил игрока.
Впрочем, в игровом космосе не всегда смеются и танцуют. Серия
**Dead** **Space** **Alien: Isolation** (2014). Замкнутое пространство торговой космостанции и пугающе смышленый Чужой сделали из игры устрашающий хит.
Астронавт из
**The** **Swapper** (2013) пытается разгадать тайну заброшенной космической станции. Помимо оригинальных головоломок и чудесного устройства для создания собственных клонов, игра создает сильнейшее чувство одиночества, отчаяния и безнадежности и заслуженно получила массу наград в сообществе инди-разработчиков.
Среди звездных просторов в мире видеоигр обитают не только герои войн и светлые храбрецы. Ричард Б. Риддик — самый матерый преступник во вселенной. Два эпизода из его яркой жизни — Escape from Butcher Bay (2004) и Assault on Dark Athena (2009) входят во франшизу
**The** **Chronicles** **of** **Riddick**. И это одни из самых лучших игр по лицензии в истории. Если первое приключение Риддика прошло вдалеке от звезд — он бежал из супер-тюрьмы, — то в Assault on Dark Athena зигзаги судьбы привели нашего антигероя на борт гигантского крейсера космических работорговцев. Спасая свою жизнь, Риддик даже выходил в открытый космос, и эти моменты очень хороши в плане игрового дизайна и постановки.
Многих игроков привлекает в космической тематике романтика дальних странствий, мириады звезд и бескрайние дали в узорах туманностей. Тема межзвездных путешествий ярко раскрыта в амбициозной и масштабной
**No Man's Sky** (2016, студия Hello Games). На своем пути к центру вселенной капитан звездолета путешествует по сгенерированному случайным образом космосу и планетам. События были непредсказуемы, миры — удивительны, встречи и события — уникальны. Игра получила немало критики на старте за монотонность, а эффект завышенных ожиданий привел к печальным последствиям. Но! Hello Games отличилась активной поддержкой своего проекта. И речь не о микроскопических DLC в виде новых шапочек и трусишек для персонажей. Студия выпускает объемные, достойные заявленного космического масштаба обновления (Atlas Rises, Visions) и игра постепенно набирает заявленную изначально критическую массу.
Временами разработчики игр напоминают нам, что необязательно стремиться за горизонт событий — в нашей родной Солнечной системе тоже много интересного. Кооперативный экшен
**Warframe** (2013) может стать самым наглядным и увлекательным атласом по астрономии. Космический ниндзя из рода тенно наводит порядок в Солнечной системе, бороздя просторы на корабле с болтливым ИИ. В процессе можно посетить и Марс, И Венеру, и старушку Землю, и другие небесные тела нашего родного космического угла. Warframe стоит отметить за отличный экшен и художественный стиль: представьте, что «Звездные войны» снял Люк Бессон. Игра динамично развивается, и на сегодняшний день у нее уже 50 миллионов пользователей!
Посетить Красную планету предлагает
**Waking** **Mars** (2012). Игра примечательна изучением и взаимодействием астронавтов с марсианскими формами жизни. Это атмосферное 2D-приключение увлекает процессом выстраивания настоящей экосистемы в пещерах Марса и по-хорошему напоминает о таком кино, как «Луна 2112» с его победившим минимализмом, фантастике Хайнлайна или Булычева. В Waking Mars не придется лупить ракетами по зубастым мутантам, это редкая в этой тематике полностью созидательная игра.
И напоследок необходимо упомянуть две игры, которые, несмотря на отсутствие космического бюджета, расскажут вам о космосе чуть ли не лучше всех других. Песочница
**Starbound**
А в гениальной
**Kerbal** **Space** **Program** мы возглавим ЦУП забавных кербалнавтов, покорителей космоса. Под милой оболочкой скрывается сложный и глубокий конструктор космических аппаратов с элементами экономической стратегии. Масса возможностей и режимов, неповторимый процесс подготовки полета и радость от успеха миссии, веселая атмосфера и забавные кербалнавты, которые ежесекундно готовы отважно удариться в панику — игра может увлечь на многие часы и дни. Порог вхождения высок, но даже фолианты текста в обучающих миссиях написаны с огоньком.
За бортом этого материала осталось немало достойных игр о звездных просторах и храбрых космонавтах. Высказывайтесь в комментариях, какую игру по вашему мнению, стоит запустить в честь Международного дня полета человека в космос? |
985,687 | Outward — в диких условиях. Рецензия | |
Жанр |Ролевая игра
|
Издатель |Deep Silver
|
Разработчик |Nine Dots Studio
|
Минимальные требования |Процессор Intel Core i5-750 2,66 ГГц / AMD Phenom II X4 B65 3,4 ГГц, 4 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 1 Гбайт памяти, например NVIDIA GeForce GTS 450 v4/AMD Radeon R5 340, 15 Гбайт на жестком диске, аккаунт в Steam или Epic Games Store
|
Рекомендуемые требования |Процессор Intel Core i5-2400 3,1 ГГц / AMD FX-6350 3,9 ГГц, 8 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 2 Гбайт памяти, например NVIDIA GeForce GTX 960 / AMD Radeon R9 380
|
Дата выхода |26 марта 2019 года
|
Возрастной ценз |от 12 лет
|
Платформы |PC, PS4, Xbox One
|
Официальный сайт *Игра протестирована на * *PC*
Nine Dots Studio чуть ли не в каждом ролике Outward задается вопросом: «Неужели вы не устали от снисходительного отношения в играх?». И за ручку вас водят по маркерам (какие Dark Souls?), и протагонист неизменно оказывается избранным (да, старина Индржих?), и вообще, слишком уж просто все дается (только крысы в ELEX думают иначе). Outward предлагает в чем-то свежий взгляд на жанр, только вот в погоне за ощущением «маленького человека в большом мире» рискует отпугнуть многих потенциальных поклонников.
Герой попадает в мир Аурай буквально в одних трусах. Нам выпадает роль изгоя-неудачника, который выплачивает дань своему племени за то, что один из предков когда-то здорово подвел общину. Такие здесь традиции — потомкам приходится нести бремя грехов своего рода. Мол, только так в человеке просыпается настоящее чувство ответственности.
В очередной попытке заработать достаточно денег, чтобы откупиться от долга, наш герой отправляется в плавание, но корабль на подходе к дому терпит крушение. Вся добыча идет ко дну, а нам дают лишь пять дней, чтобы добыть сто пятьдесят серебряных. Сумма, по меркам Outward, приличная. Если не заплатить вовремя, придется распрощаться с домом-маяком. Как добыть деньги? Разбирайтесь сами.
Потираешь ручки, уважаемый читатель, ожидая разных квестов, нелинейного повествования и лихих приключений? Не тут-то было. Nine Dots — скромная студия со скромными средствами, пусть проект и подхватило большое издательство. Надежды на новую Gothic рушатся моментально. Пробежав поселение вдоль и поперек, понимаешь, что второстепенных заданий практически нет. Максимум, что нам могут предложить — сбегать в пещеру с троглодитами и найти редкий гриб. И это единственное (!) осмысленное поручение, которое вы сможете найти в городе. Ну, еще местный алхимик подкинет копеечку за магическую пыль.
Игра предлагает выйти «за пределы» (а именно так переводится ее название) своего дома и отправиться исследовать мир — именно там, за городской стеной, нам обещают уникальные приключения пополам с тяжестью жизни простого путника, а не избранного. Выжить в дикой природе, полной магических тварей и бандитов, действительно непросто. К формуле старых RPG от третьего лица Outward примешивает симулятор выживания, поэтому придется держать голод и жажду на контроле. Причем не кидать в рот что ни попадя, а следить за питанием: сырая рыба или полежавшее мясо аукнутся несварением желудка, а если выпить воды из лужи, наш храбрый NPC подцепит заразу.
Негативные статусы снять не так-то просто — нужны особые отвары. Можно их купить, если есть на что, или же сварить самостоятельно. Только найдите сперва кухню, или же разведите костер, поставьте на него котелок, смешайте ингредиенты. А для создания магических снадобий понадобится оборудование посложнее. Алхимический комплект занимает кучу места, зато позволит в дороге создавать зелья, сильно упрощающие жизнь: одни помогут затянуть раны, другие снимут усталость.
Для комфорта в пути нужно носить с собой гору вещей: палатку, комплект для разведения огня, посуду для готовки, одежду на разную погоду. А переносной набор алхимика — это настоящая роскошь. Самым важным помощником (как бы и не основным персонажем!) становится рюкзак. Чтобы вы понимали его значимость: на карте местности даже не отображается местоположение героя, извольте ориентироваться самостоятельно. Но если вы сбросите сумку, компас будет всегда указывать в ее направлении. Поверьте, никогда еще не приходилось так радоваться находке более крупного ранца взамен имеющегося. Укладка вещей: что спрятать в сумке, что держать в карманах — одна из важнейших составляющих игрового процесса.
Outward учит ценить каждую мелочь и действительно заставляет планировать дорогу, с вниманием относиться к сборам. Даже в большом рюкзаке много не утащишь, поэтому важно правильно расставить приоритеты и понимать, что понадобится в точке назначения. Когда в пути настигает буря, а солнце клонится к закату, так и хочется развести костер и удобно устроиться в меховой палатке. Немногие игры могут вызывать такое чувство уюта, и Outward — одна из них.
Жаль, что заняться здесь, кроме посиделок у костра, практически нечем. Довольно скромный по современным стандартам мир состоит из четырех зон с уникальными условиями. В каждой из них есть ровно один город, и большую часть времени предстоит бегать между этими столицами, выполнять редкие поручения и со всех ног драпать от врагов. Аурай — скучное место, в котором слишком мало интересного. Можно пятнадцать минут бежать по пустыне или лесу и ничего не найти. Иногда натыкаешься на пещеру, и с должной сноровкой удается одолеть ее грозных обитателей. Это сулит какой-нибудь ценный предмет или качественную экипировку, но историй игра не рассказывает.
Случаются редкие исключения. Например, в одном форте смотритель любезно предложил переночевать и пополнить силы. Очнулся я уже в клетке посреди шахты с рабами, откуда предстояло выбраться. Но это случай из ряда вон. Outward почти лишена заданий, а те, что есть, порой не дает выполнять. Вскоре после начала нам предстоит сделать выбор в пользу одной из гильдий. Для этого надо помочь одному из представителей фракции. Почему-то, строго одному. Выполнение одного задания блокирует все прочие квесты в этом городу. Мало ли, лишнюю монету заработаете?!
С деньгами здесь очень туго, поэтому большую часть экипировки предстоит собирать самостоятельно. Различных рецептов в игре великое множество, и совсем без обмундирования вы не останетесь. Хотя чтобы добыть действительно качественные вещи, придется попотеть. Впрочем, даже с хорошей броней и магическим оружием вы не будете королем на поле боя.
Бьют враги больно. Боевая система довольно простая: удар, сильный удар, блок, перекат. Но, как всегда, есть нюансы. Во-первых, оружие разных типов ощущается по-разному, а легкие и мощные удары складываются в собственные комбинации. Благодаря этому интересно экспериментировать с найденными мечами, топорами и прочими алебардами. Во-вторых, к любой схватке желательно готовиться, а в случае с сильными соперником это и вовсе обязательно: выпейте усиливающее зелье, зачаруйте клинок, расставьте ловушки.
Драки очень хорошо характеризуют Outward в целом: в боевой системе игры есть интересные задумки и оригинальные мелочи, но в целом она ощущается слишком топорной. Типичное сражение выглядит так: вы просто бегаете вокруг соперника и затыкиваете его в бока и спину. В голове невольно начинает играть музыка из «Шоу Бенни Хилла». Странных дизайнерских решений полно. Я могу понять отказ от механики быстрых путешествий — ведь в дороге, в исследовании мира вся соль. Но вот перемещение между столицами через какой-нибудь портал вполне вписывалось бы в логику игры. Наверное, эти порталы есть, но они ждут своего героя, а не простого статиста.
Outward сильно полагается на изготовление предметов, но почему-то не дает посмотреть список всех выученных рецептов зелий или еды. В голове все держать довольно сложно, и приходится каждый раз думать, взять ли вот этот гриб или ягоду? Что там нужно для лечебного снадобья? Узнаете, когда сядете за алхимический прибор. Недоумеваешь и от того, что авторы дали лишь восемь слотов для быстрых действий. Пара зелий, несколько умений и заклинаний, и вот уже все забито.
Самое грустное, наверное, в том, что, несмотря на редкие моменты радости, Outward крайне редко поощряет. В неприветливой и даже в чем-то безжалостной Kingdom Come: Deliverance прогресс хорошо ощущался с течением времени. Безымянный из Gothic тоже не был избранным, и большую часть игры приходилось выполнять элементарные поручения, разрешать бытовые проблемы. Однако «Готика» была увлекательной и рождала чувство, что за каждым поворотом можно найти нечто интересное. В отличие от Outward.
Спасает ситуацию уместный кооператив, причем предусмотрен режим разделенного экрана (в том числе на ПК). Даже случайный попутчик делает игру веселее — можно поболтать в долгой монотонной дороге, посмеяться вместе над очередной странной условностью, да и драться куда проще плечом к плечу. Хотя Outward — развлечение на любителя, не каждый захочет тратить на нее время. Слишком уж она неспешна, слишком редко награждает за усилия и потраченное время.
С другой стороны, и наказывает она не сильно. Протагонист фактически не может умереть. После «гибели» экран загрузки сообщит, что вас или нашел случайный путник и отнес к костру, или стражники принесли в город, или бандиты затащили в лагерь и заперли в клетке. Пример удачной находки в игровом процессе. Жаль, что основная механика не особо вовлекает.
* * *
Outward наверняка найдет своих преданных фанатов, которые проникнутся неспешным темпом игры и атмосферой максимально приземленного фэнтезийного путешествия. Однако пустой мир и целый перечень неоднозначных решений отпугнут многих игроков, которые при несколько иных обстоятельствах могли бы остаться с детищем Nine Dots на долгие часы.
**Достоинства:** **Недостатки:**
|
|
Несмотря на редкие приятные виды, Outward выглядит гостем из прошлого. Зато работает чуть ли не на калькуляторе!
|
|
Саундтрек приятный, однако смена композиций слишком резкая, а иногда игра может внезапно затихнуть. На озвучении персонажей сэкономили: NPC проговаривают лишь первую фразу из своей речи (и даже она не всегда совпадает с текстом). Лучше было бы никак, чем так.
|
|
RPG от третьего лица, из которой вырезали почти все интересное, а взамен добавили лишь щепотку «выживания».
|
|
Вдвоем дорога всегда веселее, но смысла от этого в ней больше не становится.
|
|
Скучный симулятор путешественника, в котором нашлось место ряду интересных нововведений и механик.
*Оценка: 6,0/10* **Видео** **:** |
985,692 | Обзор беззеркальной фотокамеры Panasonic Lumix S1R: вторжение чужого | Для Panasonic, в отличие от Nikon, Canon и Sony, новый ход оказался по-настоящему радикальным – S1 и S1R стали первыми полнокадровыми камерами в истории компании. Вместе с ними представлена новая линейка оптики, новый байонет, новое… все.
Panasonic стартовала в новом для себя мире с двумя близкими, но различными по направленности камерами: Lumix DC-S1, с меньшим разрешением сенсора (24 мегапикселя) и расширенными возможностями съемки видео, – классический для компании универсальный аппарат, тогда как S1R ориентирована в первую очередь на профессиональных фотографов, видеосъемка для этой модели вторична. Поговорим мы именно про S1R.
Итак, знакомьтесь: Panasonic Lumix S1R – беззеркальная фотокамера с сенсором полного размера и сменной оптикой. Камера оснащена абсолютно новыми байонетом Leica L, который совместим не только с «родными» линзами, но и с объективами Leica SL (полнокадровая линейка Leica). Собственных объективов под новый байонет у Panasonic на сегодняшний день существует три: Lumix S PRO 50 мм F1.4, LUMIX S 24-105 мм F4 и LUMIX S PRO 70-200 мм F4. Все они попали ко мне на тест вместе с камерой. Помимо Leica SL и Panasonic (линейка объективов будет расширяться довольно быстрыми темпами), планируется также выпуск оптики Sigma – знаменитая японская компания помогала Panasonic в разработке байонета и активно подключится к развитию новой серии.
Производитель позиционирует свою новинку как инструмент для серьезной профессиональной работы. Действительно, здесь мы видим целый ряд впечатляющих характеристик.
На данный момент разрешение сенсора S1R, составляющее 47,3 Мп, – самое большое в своем классе. По данной характеристике новинка превосходит вышедшие в прошлом году Nikon Z7 с разрешением 45,7 Мп и Sony a7R III с разрешением 42,4 Мп. CMOS-матрица лишена низкочастотного фильтра, поэтому можно ожидать, что с новинкой Panasonic мы получим изображения огромного разрешения с отличной детализацией, пригодные для печати очень большим форматом, а также открывающие большие просторы при кадрировании изображений. Оборотной стороной такого большого разрешения, разумеется, является и огромный вес кадров, который предъявляет особые требования к системе хранения и обработки изображений. Помимо этого, при разработке сенсора было уделено внимание максимальному снижению цифрового шума. Технология основана на использовании асферических микролинз, «волновода» для направления света в пиксель и глубоких фотодиодов для более эффективного захвата света. Эта технология отличается от обратной подсветки (BSI), используемой в камерах Sony и Nikon с высоким разрешением, которая помещает светочувствительную область ближе к поверхности чипа. Диапазон светочувствительности Panasonic Lumix S1R – 100-25 600 единиц ISO с возможностью расширения до ISO 50-51 200.
В Panasonic Lumix S1R используется байонет Leica L, отличающийся большим диаметром (51,6 мм, Canon RF – 54 мм, Nikon Z – 55 мм, Sony E – 46,1 мм), малым рабочим отрезком (20 мм) и большим количеством контактов. Это позволяет создавать в рамках системы светосильную оптику высокого качества с теоретическими характеристиками выше, чем для Sony E, – правда, перед Nikon и Canon серьезного преимущества Leica L не дает.
Камера оснащена процессором Venus Engine Beauty. По утверждению производителя, эта разработка позволяет обеспечить отличное качество передачи текстур и цветовых нюансов как в светах, так и в тенях.
В камерах (как в S1R, так и в S1) применен новый OLED-видоискатель разрешением 5,76 Мп. На данный момент такого разрешения нет ни у одной из конкурирующих камер – в них используются, как правило, видоискатели c разрешением 3,69 Mп (полнокадровые камеры Sony, Nikon и Canon).
Видоискатель может быть настроен на обновление со скоростью 120 или 60 кадров в секунду. Производитель декларирует задержку всего в 0,005 секунды, и это также лучший показатель в классе.
⇡#
**Стабилизатор изображения ** **Dual ** **I.** **S.**
В камере реализована система 5-осевой стабилизации, так же как в Nikon Z и Sony a последних поколений, – здесь есть преимущество перед Canon EOS R. Стабилизация работает как в режиме фото, так и в режиме видеосъемки (в том числе в формате 4К) на всех фокусных расстояниях. Производитель говорит о возможности снимать с рук на выдержках в шесть раз более длинных, чем привычное для фотографов соотношение «1/фокусное расстояние».
⇡#
**Особенности системы фокусировки**
В новой камере Panasonic используется система контрастного автофокуса Depth from Defocus AF – тот же принцип, что и в аппаратах Panasonic Micro Four Thirds, но с большей вычислительной мощностью. При этом в S1R мы впервые встречаем новую функцию в системе распознавания объектов: если раньше камеры способны были распознавать в кадре исключительно людей, то теперь к ним прибавились и представители животного мира: кошки, собаки, птицы, что облегчает точную фокусировку и их отслеживание в кадре.
Преимущество контрастной системы – очень высокая чувствительность, автофокус Lumix S1R способен работать практически в полной темноте, при -6EV. Заявленная реальная скорость фокусировки при благоприятных условиях освещения – 0,08 секунды. В темноте она, конечно, понижается, но не до критических значений, фокусировка работает все равно бодро.
Ключевые характеристики помимо выделенных выше:
|
Panasonic S1R |
Panasonic S1 |
Nikon Z7 |
Sony a7R III |
Canon EOS R
|
Сенсор изображения |36 × 24 мм (полный кадр)
|36 × 24 мм (полный кадр)
|36 × 24 мм (полный кадр)
|36 × 24 мм (полный кадр)
|36 × 24 мм (полный кадр)
|
Эффективное разрешение сенсора |47,3 мегапикселя
|24,2 мегапикселя
|45,7 мегапикселя
|42,4 мегапикселя
|30,3 мегапикселя
|
Стабилизатор изображения |5-осевой
|5-осевой
|5-осевой
|5-осевой
|Нет
|
Байонет |Leica L
|Leica L
|Z Nikon
|Sony E
|Canon RF
|
Формат фото |JPEG (EXIF 2.3, DCF 2.0), RAW (ARW)
|JPEG (EXIF 2.3, DCF 2.0), RAW (ARW)
|JPEG (EXIF 2.3, DCF 2.0), RAW (NEF)
|JPEG (EXIF 2.3, DCF 2.0), RAW (ARW)
|JPEG (EXIF 2.3, DCF 2.0), RAW, Dual Pixel RAW, C-Raw
|
Формат видео |AVCHD, MP4
|AVCHD, MP4
|MOV, MP4
|XAVC S, AVCHD 2.0, MP4
|MOV, MP4
|
Размер кадра |до 8368 × 5584 пикселя
|до 6000 × 4000 пикселей
|до 8256 × 5504 пикселя
|до 7952 × 5304 пикселя
|до 6720 × 4480 пикселей
|
Разрешение видео |до 3840 × 2160, 60p
|до 3840 × 2160, 60p
|до 3840 × 2160, 30p
|до 3840 × 2160, 30p
|до 3840 × 2160, 30p
|
Чувствительность |ISO 100–25 600 с возможностью расширения до 50–51 200
|ISO 100–51 200 с возможностью расширения до 50–204 800
|ISO 64–25 600 с возможностью расширения до 32–102 400
|ISO 100–32000 с возможностью расширения до 50, 51200 и 102400
|ISO 100–40000 с возможностью расширения до ISO 50, 51200 и 102400
|
Затвор |Механический затвор: 1/8000 – 30 с; электронный - до 1/16000
длительная выдержка (Bulb)
|Механический затвор: 1/8000 – 30 с; электронный - до 1/16000
длительная выдержка (Bulb)
|Механический затвор: 1/8000 – 30 с;
длительная выдержка (Bulb)
|Механический затвор: 1/8000 – 30 с;
длительная выдержка (Bulb)
|Механический затвор: 1/8000 – 30 с;
длительная выдержка (Bulb)
|
Скорость серийной съемки |До 9 кадров в секунду
|До 9 кадров в секунду
|До 9 кадров в секунду
|До 10 кадров в секунду с электронным затвором
|До 8 кадров в секунду в обычном режиме, до 5 кадров в секунду со следящей фокусировкой
|
Автофокус |Контрастный, 225 точек
|Контрастный, 225 точек
|Гибридный (контрастный + фазовый), 493 точки
|Гибридный, 399 точек фазового АФ в полнокадровом режиме; 255 точек фазового АФ + 425 точек контрастного АФ
|Dual Pixel CMOS AF с покрытием до 88% датчика по горизонтали и до 100% по вертикали
|
Экспозамер, режимы работы |Сенсорная система с 1728 точками: матричный, центровзвешенный, точечный, по ярким участкам
|Сенсорная система с 1728 точками: матричный, центровзвешенный, точечный, по ярким участкам
|TTL-датчик: матричный, центровзвешенный, точечный, по ярким участкам
|Замер по матрице, 1200 зон: матричный, центровзвешенный, точечный, точечный по стандартному/крупному участку, усредненный для всего экрана, по самой яркой области
|TTL-замер в 384 зонах: оценочный, частичный, центровзвешенный, точечный
|
Экспокоррекция |+ 5,0 EV с шагом 1/3 или 1/2 EV
|+ 5,0 EV с шагом 1, 1/3 или 1/2 EV
|+ 5,0 EV с шагом 1/3 или 1/2 EV
|+ 5,0 EV с шагом 1/3 или 1/2 EV
|+ 5,0 EV с шагом 1/3 или 1/2 ступени
|
Встроенная вспышка |Нет, X-синхронизация
1/320 с
|Нет, X-синхронизация
1/320 с
|Нет, X-синхронизация
1/200 с
|Нет, X-синхронизация
1/250 с
|Нет, X-синхронизация 1/200 с
|
Автоспуск |2/10 с
|2/10 с
|2 с, 5 с, 10 с, 20 с; от 1 до 9 экспозиций с интервалом 0,5; 1; 2 или 3 с
|
2 с, 5 с, 10 с; автотаймер для съемки с брекетингом; автотаймер для непрерывной съемки (до 3 кадров)
|2/10 с
|
Карта памяти |Два слота: XQD и SD типа UHS-II
|Два слота: XQD и SD типа UHS-II
|Слот для XQD/CF-Express
|Два слота, совместимых с картами Memory Stick (PRO, Pro Duo) и SD/SDHC/SDXC типа UHS I/II
|Слот для SD/SDHC/SDXC типа UHS II
|
Дисплей |Cенсорный наклонный ЖК, 3,2 дюйма, разрешение 2,1 млн. точек
|Cенсорный наклонный ЖК, 3,2 дюйма, разрешение 2,1 млн. точек
|Cенсорный наклонный ЖК, 3,2 дюйма, разрешение 2,1 млн. точек
|Сенсорный наклонный, ЖК, 3 дюйма, разрешение 1,4 млн. точек
|Сенсорный поворотный ЖК, 3,2 дюйма, 2,1 млн. точек; дополнительный монохромный дисплей
|
Видоискатель |Электронный (OLED, 5,76 млн. точек)
|Электронный (OLED, 5,76 млн. точек)
|Электронный (OLED, 3,69 млн. точек)
|Электронный (OLED, 3,69 млн. точек)
|Электронный (OLED, 3,69 млн. точек)
|
Интерфейсы |USB Type-C (USB 3.1), HDMI, 3,5-мм разъем для наушников, 3,5-мм разъем для микрофона, разъем для пульта ДУ
|USB Type-C (USB 3.1), HDMI, 3,5-мм разъем для наушников, 3,5-мм разъем для микрофона, разъем для пульта ДУ
|USB Type-C (USB 3.0), HDMI тип C, 3,5-мм разъем для наушников, 3,5-мм разъем для микрофона, разъем для пульта ДУ
|USB Type-C (USB 3.0), microUSB, 3,5-мм разъем для наушников, 3,5-мм разъем для микрофона, microHDMI тип D, разъем для синхронизатора
|HDMI, USB 3.1 (USB Type-C), 3,5-мм для внешнего микрофона, 3,5-мм для наушников, порт для пульта ДУ
|
Беспроводные модули |Wi-Fi, Bluetooth
|Wi-Fi, Bluetooth
|Wi-Fi, Bluetooth (SnapBridge)
|Wi-Fi, NFC, Bluetooth
|Wi-Fi, Bluetooth
|
Питание |Литий-ионный аккумулятор DMW-BLJ31, 23 Вт·ч (3050 мА·ч, 7,4 В)
|Литий-ионный аккумулятор DMW-BLJ31, 23 Вт·ч (3050 мА·ч, 7,4 В)
|Литий-ионный аккумулятор EN-EL15b, 14 Вт·ч (1900 мА·ч, 7 В)
|Литий-ионный аккумулятор NP-FZ100, 16,4 Вт·ч (2280 мА·ч, 7,2 В)
|Литий-ионный аккумулятор LP-E6N емкостью 14 Вт·ч (1865 мА·ч, 7,2В)
|
Габариты |149 × 110 × 97 мм
|149 × 110 × 97 мм
|134 × 101 × 68 мм
|126,9 × 95,6 × 73,7 мм
|135,8 × 98,3 × 84,4 мм
|
Масса |1020 граммов (с аккумулятором и картой памяти)
|1021 грамм (с аккумулятором и картой памяти)
|675 граммов (с аккумулятором и картой памяти)
|657 граммов (с аккумулятором и картой памяти)
|660 граммов (вкл. батарею и карту памяти)
|
Актуальная цена |269 990 рублей (версия без объектива), 339 990 рублей (версия с объективом 24-105mm f/4)
|179 990 рублей (версия без объектива)
|237 000 рублей (версия без объектива), 274 990 рублей (версия с объективом 24-70mm f/4)
|230 000 рублей за версию без объектива (body)
|159 990 рублей за версию без объектива (body), 219 990 рублей за версию с объективом (kit)
⇡#
**Дизайн, эргономичность и управление**
Уже с первых секунд Panasonic Lumix S1R производит внушительное впечатление своими размерами, весом и внешним видом. Камера выглядит достаточно строго и стильно, однако без изысков и заигрываний с дизайном – максимум внимания здесь уделяется функциональности и надежности.
Корпус камеры литой, выполнен из магниевого сплава, все швы защищены уплотнителем – Lumix S1R подходит для съемки в любых погодных условиях, пыле- и влагозащищена. Производитель гарантирует исправную работу при температурах до -10 градусов (по факту, конечно, можно использовать камеру и при более низких температурах).
Вес камеры с батареей без объектива – больше килограмма (1020 г), это весьма солидный показатель для данного класса камер (для сравнения: Nikon Z7 с батареей весит 675 граммов, а Sony a7R III – 657 граммов). Можно сказать, что Panasonic следует своим собственным традициям: делать максимально крупные и тяжелые камеры в каждом классе – до этого все отмечали габариты и вес моделей серии GH, сравнимых с зеркалками. Теперь вот полнокадровая беззеркалка, которая весит в полтора раза больше, чем ее прямые конкуренты. Выигрыша в сравнении с полнокадровыми зеркальными камерами здесь попросту нет, если говорить о «тушке». С оптикой S1R, конечно, и меньше, и легче профессиональных зеркалок.
Тем не менее все новые объективы Panasonic, о которых говорилось выше и которые мне удалось протестировать, также имеют внушительные габариты. Полный комплект техники, доставшейся мне на тест, весил очень солидно. Признаюсь, с кофром, в который были уложены все три объектива и камера, я смогла осилить лишь двухчасовую прогулку – после этого удовольствие от съемки на высококлассную технику сменилось банальной усталостью и болью в спине. Таким образом, планируя съемку, особенно если она будет происходить «на ходу», лучше заранее прикинуть, какие из объективов действительно стоит с собой взять. В поход с таким набором техники идти будет тяжело, однако если вы настоящий (и физически крепкий) энтузиаст и готовы на все ради качества кадров – возможно, это ваш выбор.
Пройдемся по основным конструктивным особенностям камеры.
**Видоискатель.** О его конструкции уже говорилось выше. Напомню, его разрешение – самое большое в классе. Выглядит он также непривычно крупным. Видоискатель снабжен большим круглым резиновым наглазником, который при желании можно снять, однако мне работать с ним было комфортно. Датчик глаза рядом с видоискателем можно настроить таким образом, чтобы камера переходила в спящий режим через указанное количество секунд после того, как вы отведете ее от лица – это один из способов рационально расходовать ресурс батареи. Видоискатель отлично зарекомендовал себя в работе – изображение в нем «живое» и детализированное.
S1R оснащена
**сенсорным жидкокристаллическим дисплеем** с диагональю 3,2 дюйма и разрешением 2,1 мегапикселя, который может наклоняться при съемке как в альбомной, так и в портретной ориентации.
На верхней панели
** монохромный ЖК-дисплей**, отображающий основные параметры съемки. В беззеркалках даже серьезного уровня он зачастую отсутствует, но это очень полезная и удобная вещь. **Диск выбора режима** **протяжки **слева сверху имеет два положения режима непрерывной серийной съемки (обозначены I и II). Их можно настроить для установки предпочитаемой скорости съемки или для доступа к съемке 6K / 4K Photo. **Джойстики и переключатели. **S1R оснащена восьмипозиционным задним джойстиком для быстрого перемещения точки автофокусировки, что является явным улучшением по сравнению с четырехпозиционными джойстиками на моделях системы Panasonic Micro Foyr Thirds. Вы можете выбрать, насколько быстро перемещается точка автофокусировки. Также можно настроить функцию, которая выбирается нажатием на джойстик (сброс положения точки автофокусировки, использование в качестве кнопки Fn, доступ к меню – либо можно не назначать никакую функцию). **Двухпозиционный переключатель на передней панели** камеры можно настроить для управления одной из ряда функций: режим зоны автофокуса, тип затвора, автоспуск и др.
Слева на задней панели камеры находится
**рычаг блокировки, **причем вы можете выбирать, что именно вы хотите с его помощью блокировать – какие-то отдельные элементы управления или, например, временно деактивировать сенсорный экран. **Подсветка органов управления** – одна из особенностей, которая отличает S1R от большинства конкурентов. Это очень полезная и удобная функция при съемке в условиях низкой освещенности, когда органы управления с трудом различимы. Кнопки можно настроить либо на постоянное освещение, либо так, чтобы они загорались при нажатии кнопки подсветки ЖК-дисплея верхней панели. **Двойной слот для карт памяти** – еще одна важная конструктивная особенность. Это то, чего мне лично очень не хватило у конкурирующих камер, таких как Nikon Z7 и Canon EOS R. S1R позволяет вести как последовательную, так и параллельную запись на две карты памяти. В условиях ответственной коммерческой работы наличие резервной копии материалов – безусловно, очень существенное преимущество. Один слот предназначен для использования карт SD стандарта вплоть до UHS-II, второй – для карт XQD. Слот SD позволяет использовать карты V90, что обеспечивает максимально высокую скорость съемки и записи информации.
В целом набор органов управления и возможности для гибкой настройки всего и вся в камере можно назвать беспрецедентным на рынке. Например, клавиши регулировки баланса белого, светочувствительности и компенсации экспозиции можно настроить таким образом, чтобы вы регулировали настройки при их удержании и повороте диска или при повороте диска после однократного нажатия; можно сделать так, чтобы один диск при настройке светочувствительности отвечал за изменение ISO, а другой – за верхний предел в режиме Auto ISO или оба просто регулировали ISO; для компенсации экспозиции вы можете выбрать, по какой шкале выставлять компенсацию для вспышки. И подобных деталей – великое множество. Более того, профиль настроек можно сохранить на карту памяти (!). Это полезно для фотографов, которые берут камеру в аренду и не хотят каждый раз все настраивать под себя заново. Нужно сказать, что файлы настроек S1 и S1R не совместимы.
В Panasonic Lumix S1R установлена совершенно новая и непривычно огромная батарея DMW-BLJ31 емкостью 23 Вт·ч (3050 мА·ч, 7,4 В) – не только сама камера в полтора раза тяжелее, чем конкуренты, но и аккумулятор в полтора раза более крупный и большей емкости. При съемке репортажа с включенным предпросмотром кадра и наведении по экрану батареи хватило на семь часов работы с перерывами – примерно 600 кадров. По стандарту CIPA заявлено 380 кадров – это, конечно, с большим запасом.
Заряжать батарею можно как с помощью зарядного устройства, так и при помощи обычного USB-кабеля.
Panasonic сильно переработала интерфейс S1/S1R, упорядочив структуру меню и изменив систему быстрого меню. Каждая вкладка основного меню разбита на подразделы, обозначенные серией значков. Это позволяет относительно быстро переходить к нужному разделу.
Быстрое меню организовано в формате матрицы форматом 3 × 4 рядом с небольшим окном предварительного просмотра или растянутого на весь экран массива 6 × 2. Надо сказать, в любом случае это настоящий прорыв по сравнению с камерами G-cерии, которые как раз всегда отличались очень слабой организацией меню быстрого доступа. Само собой, элементы, входящие в матрицу, настраиваются, а настройки для видео и фото выводятся в соответственных режимах раздельно. Есть сенсорный ввод. Последний не только используется для навигации по интерфейсу, но и позволяет задавать точку фокусировки.
Камера оснащена беспроводными интерфейсами Wi-Fi 802.11ac и Bluetooth 4.2. Здесь ничего нового – фотокамерой можно управлять со смартфона, передавать снимки без проводов, но фоновой передачи при помощи Bluetooth, как в Nikon SnapBridge, тут нет. Bluetooth служит только для быстрого сопряжения уже «знакомых» друг с другом устройств.
**Съемка в ** **JPEG. Художественные фильтры и стили изображения**
Несмотря на то, что камеры уровня Panasonic Lumix S1R подразумевают съемку в RAW и последующую обработку снимков, оценить качество работы в JPEG тоже важно – ведь, например, у репортажных фотографов часто стоит задача выкладывать снимки незамедлительно.
Первое, что обратило на себя мое внимание, – хороший динамический диапазон снимков уже в JPEG. К примеру, сюжет ниже был снят при сложном контровом освещении, когда даже глазом непросто различить детали в отдаленных тенях. На снимке же тени получились проработанными, нигде они не слились в темное пятно. Также хорошо различима и фактура освещенного асфальта:
Второй важный момент – впечатляющая резкость и детализация изображения. Напомню, в камере отсутствует низкочастотный фильтр, и, в сочетании с огромным разрешением снимков (8368 × 5584 пикселей), это дает отличный результат и возможности для радикального кадрирования изображений:
Автоматический баланс белого оставил не самое лучшее впечатление. При съемке пейзажей и уличных сцен в ясную погоду цвета, как правило, смотрятся вполне естественно и приятно:
А вот при съемке в сумерках, в тени, при смешанном и искусственном свете результаты мне понравились значительно меньше. Снимки с автобалансом белого зачастую получаются слишком холодными, с уходом в фиолетовый или красноватый тон, что особенно заметно при съемке портретов:
При этом надо отметить, что в S1R есть множество предустановок баланса белого: холодный авто, теплый авто и так далее, так что настроить камеру для получения более удачного варианта цвета несложно.
В Panasonic Lumix S1R присутствует традиционный для компании набор художественных фильтров: их много, они довольно разнообразные и интересные. Мне нравится использовать их для съемки сюжетов, не предполагающих глубокой обработки, – например, чтобы добавить атмосферы кадру и тут же опубликовать его в соцсетях:
Ниже вы можете посмотреть примеры одной сцены со всеми фильтрами.
Помимо использования фильтров, вы также можете влиять на цветовое решение своих снимков с помощью опции «Стиль съемки». В камере есть заготовленный набор стилей и, конечно, возможность настроить свои собственные, управляя контрастом, насыщенностью и другими параметрами изображения. Далее – пример съемки одного сюжета с разными стилями, предлагаемыми пользователю компанией Panasonic.
В камере реализованы различные варианты брекетинга – не только по экспозиции, но и по цвету, фокусу, глубине резкости и др.
Здесь также есть популярная функция мультиэкспозиции, позволяющая без задействования специальных программ накладывать изображения друг на друга:
Одна из интересных особенностей S1R, которая уже встречалась ранее в камерах Pentax (K-1 II, к примеру) и Olympus, – возможность съемки со сдвигом матрицы для получения снимка со сверхвысоким разрешением. Здесь – вплоть до 187 мегапикселей. Правда, какого-то запредельного уровня детализации снимки в таком разрешении не демонстрируют, прибавка не соответствует четырехкратному росту разрешения. Тем не менее для фотографов, снимающих на билборды, подобный режим может стать неплохим подспорьем.
Качество изображений при недостаточной освещенности – один из важнейших параметров для оценки камеры. Современные полнокадровые беззеркалки задали высокий уровень, и было интересно посмотреть, чем ответит компания Panasonic.
Рассмотрим съемку на разных значениях ISO на примере серии сделанных подряд кадров. Первое фото сделано на значении ISO 1600. Оно выглядит отлично, намек на шум можно заметить только при очень сильном приближении – это касается и JPEG, и RAW.
На следующем фото светочувствительность поднята до значения ISO 2500, и картина примерно та же. Чуть заметнее стали шумы в RAW (опять же, надо приблизить снимок, чтобы их заметить), но внутрикамерный шумодав с ними достойно справился, не повлияв при этом ощутимо на детализацию:
Далее – снимок, сделанный на значении ISO 5000. Он также выглядит очень достойно, но здесь уже можно более отчетливо различить и шум, и разницу между JPEG и RAW: в результате работы внутрикамерного шумодава детали стали не такими четкими, цвет более блеклый и в целом появился намек на «мыльность» картинки:
Следующий пример более показателен: здесь съемка велась на значении ISO 6400. Большую часть кадра занимает небо, обратите внимание, как на нем проявилась работа системы шумоподавления: оно смотрится рыхлым, не очень привлекательным. В этом случае мне больше нравится, как смотрится RAW-файл, пусть и с хорошо заметными шумами. Убрать шумы на небе можно с помощью выборочной коррекции в фоторедакторе.
Для полноты картины я сделала также непостановочный кадр на верхнем значении ISO – 25600. Мы видим, что JPEG выглядит очень «мыльно» по сравнению с RAW, при этом в RAW уже критическое значение шума и деградация цвета. Такое значение ISO, конечно, уже нельзя назвать рабочим – подобный снимок максимум можно выложить в инстаграм✴, в маленьком разрешении сильные шумы нивелируются.
Для сравнения покажу также другой тип сюжета. Я попробовала Panasonic Lumix S1R в качестве репортажной камеры. Поскольку фото с мероприятия нужны были, как это часто бывает, срочно, съемка велась в формате JPEG. Кадр сделан на телеобъектив 70-200 мм с максимальной светосилой ƒ/4, поэтому светочувствительность пришлось поднять до значения ISO 6400. Не могу сказать, что результат показался мне очень хорошим. Несмотря на включенную функцию шумоподавления, шум все же выражен достаточно очевидно, при этом общая резкость картинки далека от идеальной. Помимо этого, заметны проблемы с передачей тона кожи – можно увидеть неравномерность на снимках ниже:
|
|
Итого в плане работы на высоких ISO Panasonic Lumix S1R держится достойно, но без откровений. В репортажной и портретной съемке, если вам нужно действительно высокое качество, я бы рекомендовала ограничиться работой на ISO 3200, а это весьма немного по современным меркам. Для пейзажной, travel, стрит-фотографии, если небольшой шум для вас не критичен, вполне можно использовать значения вплоть до ISO 5000.
В камере применена система контрастного автофокуса – это отличает ее от ближайших конкурентов, использующих фазовую или гибридную (включающую оба типа) систему автофокуса. Всего в Panasonic Lumix S1R используется 225 точек фокусировки – по современным меркам это не очень много, но в данном случае важно не количество, а качество работы фирменной системы Depth from Defocus, вызывающей немало споров при разговорах о камерах Lumix G-серии.
Фокусируется камера действительно быстро, однако не могу сказать, что всегда точно. При съемке портретов проблем не было – S1R сразу находит и выделяет лицо и глаза модели; из-за промашек по фокусу иногда возникает ситуация, когда резкость уходит на дальний глаз (как правило, в случае, когда он лучше освещен):
В режиме следящей фокусировки при съемке бегущего человека S1R показала себя неплохо, большинство кадров сфокусированы корректно, но промашки все же есть:
Когда в кадре присутствует несколько человек одновременно, стоит подсказывать камере, на ком фокусироваться. Самое очевидное решение – изобразить в резкости того, кто ближе, – почему-то зачастую не работает, в фокусе оказываются персонажи на дальнем плане:
Одно из главных новшеств системы фокусировки – возможность распознавания не только людей, но и животных в кадре. Съемка кошек – это действительно сложная задача, потому что редкое животное способно усидеть на месте больше пары секунд, и я надеялась, что новая технология Panasonic Lumix S1R поможет существенно снизить процент брака. Но по большому счету он остался таким же, как при съемке на камеры, лишенные данной опции. Кажется, фотоаппарат далеко не всегда распознает, где у животного находятся глаза:
В итоге я быстро перешла к установке области фокусировки вручную (мне удобнее делать это касанием сенсорного дисплея), что привело к более адекватным результатам:
При съемке предметных композиций или пейзажей, в которых требуется фокус на переднем плане, камере тоже надо подсказывать, где следует сфокусироваться. Иногда она ошибается в довольно очевидных для меня, как фотографа, ситуациях. Добиться фокуса в нужном месте не всегда получается сразу.
Что касается скорости работы системы фокусировки при сложном/недостаточном освещении, то она оставила положительные впечатления: действительно, ощутимых различий по сравнению со съемкой днем я не заметила, камера очень цепко схватывает объект (но опять же не всегда тот, который должен быть главным по задумке).
Функция съемки 4К-фото уже давно представлена в камерах Panasonic Lumix G-серии. Суть ее в том, что камера при использовании электронного затвора снимает серию фото уменьшенного разрешения, но с очень большой скоростью. Полученный результат можно просмотреть в формате видеоролика и выбрать отдельные кадры, чтобы сохранить их в виде фотографий. Такой формат хорош для съемки динамичных сюжетов. В S1R технология перекочевала с камеры GH5 – здесь доступна съемка серии фото не только в разрешении 4К, но и в 6К.
В этом режиме автофокус показал себя хуже, чем при съемке аналогичного сюжета в режиме серийной съемки: промашек было гораздо больше.
Ниже вы можете видеть ролик, автоматически склеенный камерой в режиме съемки 6К:
Функция пост-фокуса – еще одна собственная разработка компании Panasonic, которую мы уже наблюдали в ряде ранее выпущенных камер. Удобство ее заключается в том, что пользователь может выбирать плоскость фокусировки не в процессе съемки, а после. По сути, технология заключается в том, что камера быстро делает ряд кадров в разрешении 4К с брекетингом по фокусу. Полученные снимки можно просмотреть на камере в формате видеоролика и указать вручную область, которую вы хотите видеть в резкости. Конечно, использовать эту функцию для каждого сюжета нет смысла, но в случае особенно ответственной сцены или сцены, где вы хотите получить ряд кадров с одинаковой композицией, но разной фокусировкой, опция вполне перспективна. Наглядный пример функции пост-фокуса можно увидеть ниже:
То, что меня по-настоящему впечатлило в работе с Panasonic Lumix S1R, – это стабилизатор. Признаться, когда слышишь от производителя о системе стабилизации, которая позволяет удлинить выдержку в 6 раз, относишься к этому со скепсисом: вероятно, речь идет о единично зафиксированных случаях в идеальных обстоятельствах. Мне было интересно понять, чего смогу добиться я, фотографируя привычные сюжеты без штатива. Следующий кадр сделан на объектив 50 мм с рук на выдержке 1/5 секунды. На увеличенном фрагменте можно хорошо оценить резкость: «шевеленки» здесь нет.
Еще один пример, съемка более динамичного сюжета: здесь целью было получить смазанные автомобили, которые подчеркивают движение в кадре. Фокусное расстояние в данном случае больше – 75 мм, а выдержка даже чуть длиннее – 1/4 секунды.
Итак, мы видим, что работа стабилизатора может разнообразить снимок с художественной точки зрения, но, конечно, главное – это возможность снимать статичные сюжеты с рук, не повышая сильно чувствительность. Действительно, в тех ситуациях, где раньше невозможно было получить качественное фото без штатива, теперь такой мощный стабилизатор может здорово выручить. В качестве наглядного примера хочу показать пару практически идентичных фото, снятых с разницей в несколько секунд. В первом случае верная экспозиция достигалась повышением ISO, во втором – удлинением выдержки (чувствительность все равно немалая – ISO 5000, но на выдержке длиннее был бы заметен смаз катера в движении, чего мне не хотелось). Согласитесь, пороговое значение светочувствительности сказалось на качестве снимка гораздо хуже, а резкость второго изображения весьма достойная (если фото планируется не для печати, а для размещения в интернете, то после уменьшения и программного поднятия резкости микронюансы, связанные с отсутствием штатива, нивелируются). Единственное, о чем никогда нельзя забывать, – движущиеся объекты в кадре на длинной выдержке, разумеется, все равно смажутся, и этот эффект не всегда желателен. Поэтому, увы, применить возможности стабилизатора, например, к репортажной съемке не получится – там в случае слабого освещения придется повышать ISO.
Следует отметить, что в Panasonic S1/S1R могут совместно работать стабилизаторы в самой камере и в оптике (в объективах LUMIX S они предусмотрены, в том числе и 5-осевые, как и в самой камере). За счет этого и достигается столь высокая эффективность. Еще один момент, уже скорее забавный, чем необходимый, – при активации стабилизатора можно увидеть в кадре двигающуюся точку, которая как раз показывает, как у вас двигаются руки при съемке и какие колебания удается стабилизировать камере. Польза этого режима в том, что вы вдобавок к стабилизатору можете сами отслеживать ситуацию с колебаниями камеры и «вручную» их корректировать, опираясь на какие-то объекты или задерживая дыхание.
Для того чтобы подобные заявления не были голословными, разумеется, необходимо проводить сравнительное тестирование, но, думаю, на сегодняшний день это лучший стабилизатор, который мне приходилось видеть в фотокамере.
На момент нашего тестирования Panasonic Lumix S1R официальные обновления продукции Adobe еще не вышли, поэтому файлы с камеры были сначала преобразованы в формат DNG с помощью Adobe DNG Converter и лишь затем обработаны в Camera RAW. Исходя из этого, выводы об обработке фото нельзя назвать окончательными, но составить общее впечатление мы можем.
В качестве первого примера сложного сюжета я использовала кадр, снятый на закате: солнце почти опустилось, и нижняя часть снимка оказалась сильно затемненной, из-за чего сюжет смотрится блекло и неинтересно. Задача здесь была в том, чтобы «вытянуть» тени, сделав фото более сбалансированным и визуально легким:
При осветлении теней закономерно проявился шум – здесь он не особенно портит общую картину, но при желании при обработке можно применить опцию шумоподавления, тогда картинка будет выглядеть более «гладко», но менее детализированно.
На следующем снимке использовался матричный экспозамер, и очень яркий фон привел к сильному недосвету на лице, соответственно, целью было также осветление теней. Проблем с этим не возникло, но на этом снимке отчетливо видны шумы на фоне. На лице же они не очень заметны:
Противоположная ситуация: сильно пересвеченный портрет из-за не смененного вовремя ISO. С пересветами, как правило, бороться значительно труднее, чем с тенями, но здесь результат, на мой взгляд, хороший: фактуру кожи удалось полностью восстановить:
Ниже – еще несколько примеров обработки RAW-файлов:
В целом работа с RAW-файлами оставила приятное впечатление, – снимки содержат хороший потенциал и в тенях, и в светах, но, разумеется, совсем «выбитые» яркие участки восстановить не получится.
Примеры фото из этого раздела и раздела, посвященного ISO, в формате RAW (362 Мбайт)
Несмотря на позиционирование Panasonic Lumix S1R в качестве преимущественно фотокамеры с видеосъемкой, задвинутой на второй план, возможности и в этом плане у камеры очень серьезные. Они заметно «режутся», конечно, высоким разрешением сенсора, что вынуждает камеру использовать заметный кроп для получения 4К-картинки c частотой 60 кадров в секунду, и ограничиваются возможности видеосъемки в темноте (запас по чувствительности у сенсора с фотодиодами меньшего размера заметно меньше). Есть и «принудительные» ограничения в сравнении с Lumix S1 – например, длина ролика не может превышать 15 минут, тогда как у S1 при съемке 30p этого ограничения попросту нет, а при съемке 60p длина ролика может достигать 29 минут 59 секунд. Также, в отличие от S1, R-версия не может снимать Full HD с частотой до 180 кадров в секунду. 60 кадр/с – предел. В этом режиме, кстати, тоже используется зона кадра, соответствующая стандарту APS-C. Полная поверхность доступна при съемке 4К на частоте 30 кадров в секунду.
Тем не менее в камере есть и разъемы для наушника с микрофоном, и совместимость с адаптером DMW-XR1, который предоставляет более совершенные микрофоны, нежели используемые в камере. Съемка доступна с цветностью 4:2:0 и глубиной 8 бит (в S1 возможен 10-битный цвет) в форматах AVCHD (только вплоть до Full HD) и MP4 с кодеком H.265 (до 4K). Битрейт – до 150 Мбит/с при съемке 4К и до 28 Мбит/с при съемке Full HD.
Скачать оригинал видео (1,14 Гбайт)
В сравнении с той же GH5 возможности для съемки видео у S1R не столь велики, камера едва ли подойдет для профессиональных видеографов, но за счет вполне рабочего автофокуса и хорошего конечного качества картинки (пусть тут и недоступны Log-профили) записать какое-то дополнительное видео на фотосессии или свадьбе по требованию клиента вполне можно, не говоря уже об исчерпывающих возможностях съемки видео «для себя».
Lumix S1R, несмотря на ее новаторство и знаковый как для Panasonic, так и для всей индустрии в целом статус, показалась мне неоднозначной и полной противоречий камерой. На одной чаше весов – огромное разрешение снимков, прекрасная резкость и детализация, на другой – не слишком внятная работа автофокуса. С одной стороны – впечатляющие возможности стабилизатора, а с другой – средняя работа на высоких ISO (даже с учетом поправки на повышенное разрешение сенсора). Большой вес самого аппарата и комплекта с новой оптикой на первый взгляд менее существенен, но в конечном счете тоже оказывает сильное влияние на решение о покупке той или иной камеры/системы. При этом и качество сборки камеры, и ее эргономика, и новая оптика – все это оставляет очень приятное впечатление.
Я бы рекомендовала присмотреться к Panasonic Lumix S1R рекламным, студийным, портретным, пейзажным фотографам – все тем, кто имеет возможность работать вдумчиво, неспешно, статично и на небольших значениях ISO. Вы сможете взять от этой камеры максимум.
Travel-фотографов остановит вес и габариты техники, но если это не важно и вы нацелены на серьезный результат – тогда S1R также может стать хорошим вариантом.
Регулярные ошибки автофокуса и не лучший в классе показатель работы при высокой светочувствительности не позволяют рекомендовать камеру как оптимальный вариант для репортажных фотографов.
При сравнении с прямыми конкурентами в этом сегменте, Nikon Z7 и Sony a7R III, преимуществами Panasonic S1R может стать совместимость с оптикой Leica SL без использования переходников, более высокое разрешение вместе с возможностью съемки со сверхвысоким разрешением, самый эффективный стабилизатор в своем классе, лучший видоискатель и наиболее гибкая схема управления. У системы неплохие перспективы (в том числе и за счет более совершенного, чем у Sony, байонета), но на сегодняшний день она страдает привычными для ранней стадии развития системы болезнями: небольшим парком оптики, несовершенной системой автофокуса и не до конца проработанной программной частью (Panasonic стоит в начале долгого пути). Главный же ограничитель на этом этапе – габариты и вес, за счет которых она приближается к зеркальным системам.
изображения (46)
RAW-файлы (первая часть) (891 Мбайт)
RAW-файлы (вторая часть) (1,89 Гбайт)
**Достоинства:** **Минусы:** |
985,738 | Обзор процессора Intel Core i5-9400F: ненастоящий Coffee Lake Refresh | Несмотря на явные трудности с производством 14-нм чипов в достаточных количествах, компания Intel продолжает планомерно расширять модельный ряд процессоров Core девятого поколения, известного под кодовым именем Coffee Lake Refresh. Правда, даётся ей это с переменным успехом. То есть формально в модельный ряд действительно добавляются новые продукты, однако в розничной продаже они появляются очень неохотно, а некоторые модели из числа представленных сразу после Нового года новинок так и не смогли отметиться на прилавках магазинов до сих пор.
Тем не менее, если исходить из официальных данных, сейчас для платформы LGA1151v2 существует уже по меньшей мере девять десктопных моделей Core, относящихся к девятитысячной серии, среди которых есть процессоры с четырьмя, шестью и восемью вычислительными ядрами. Причём в состав этого семейства входят не только вполне очевидные представители с предсказуемыми характеристиками, но и неожиданные CPU, отличающиеся от всех предшественников идеологически. Речь идёт о процессорах F-серии – массовых десктопных чипах, в спецификациях которых не заявляется встроенное графическое ядро.
Удивительно в их появлении то, что подобные предложения расширили ассортимент потребительских процессоров Intel впервые за последние восемь лет, в течение которых компания предлагала для массового сегмента исключительно решения со встроенной графикой. Однако сейчас что-то изменилось, и микропроцессорный гигант был вынужден пересмотреть свои принципы. И мы даже знаем что: просчёты в планировании и затруднения с вводом в строй техпроцесса с 10-нм нормами привели к серьёзной нехватке процессоров Intel на рынке, смягчить которую компания пытается всеми силами. Выпуск процессоров без встроенной графики – одна из достаточно очевидных мер, направленных на достижение этой цели. Благодаря ей производитель получил возможность устанавливать в серийные процессоры ранее считавшиеся бракованными полупроводниковые заготовки с повреждённым графическим ядром, которое даже у восьмиядерных Coffee Lake Refresh «отъедает» до 30 % площади 174-миллиметрового кристалла. Иными словами, такая мера способна увеличить выход годной продукции и серьёзно сократить отходы.
Однако если для Intel смысл в выпуске процессоров F-серии вполне очевиден, то выигрывают ли от появления таких предложений потребители — вопрос очень спорный. Избранная производителем тактика такова, что урезанные по своей сути процессоры реализуются без какой-либо скидки, по той же самой цене, что и их «полноценные» собратья. Чтобы подробно разобраться в этой ситуации, мы решили взять на тесты одного из представителей модельного ряда Core девятого поколения, лишённого встроенной графики, и попробовать поискать у него скрытые преимущества.
В качестве объекта для исследования был выбран Core i5-9400F – младший шестиядерный процессор поколения Coffee Lake Refresh. К этому чипу интерес особый: его предшественник, Core i5-8400, в своё время был очень популярным благодаря исключительно привлекательному соотношению цены и производительности. Официально анонсированный четыре месяца тому назад Core i5-9400 (без F в названии) предлагает немного более высокие таковые частоты по той же цене, однако найти в его продаже практически нереально. Зато Core i5-9400F представлен на прилавках повсеместно, и, более того, поскольку дефицит на эту модель не распространяется, её реальная стоимость в розничной продаже максимально близка к рекомендованной. Тем не менее это не делает Core i5-9400F хорошим вариантом для «базовых» конфигураций автоматически, ведь теперь у AMD в той же ценовой категории предлагаются шестиядерные процессоры Ryzen 5, которые, в отличие от представителей серии Core i5, обладают поддержкой многопоточности (SMT). Именно поэтому сегодняшний тест и обещает быть особенно содержательным: он должен дать ответ сразу на несколько вопросов и однозначно показать, имеет ли Core i5-9400F шанс повторить успех легендарного Core i5-8400.
⇡#Модельный ряд Coffee Lake Refresh
К настоящему моменту прошло уже две волны анонсов процессоров, условно отнесённых к поколению Coffee Lake Refresh. Несмотря на то, что такие CPU во многом похожи на предшественников из семейства Coffee Lake, компания Intel относит их к девятому поколению Core и нумерует индексами, начинающимися с цифры 9. И если в отношении Core i7 и Core i9 такая классификация может быть отчасти оправдана, ведь они впервые обрели по восемь вычислительных ядер, то новые процессоры серий Core i5 и Core i3 получили прирост в модельных номерах по большей части за компанию. По сути, они предлагают только увеличенные тактовые частоты.
При этом ни о каких улучшениях на уровне микроархитектуры говорить не приходится вообще. И удивления, честно говоря, это совсем не вызывает. Практикуемая Intel концепция разработки такова, что глубинные изменения в процессорах привязываются к совершенствованию производственных технологий. Поэтому задержки с внедрением 10-нм техпроцесса приводят к тому, что нам в очередной раз приходится иметь дело с микроархитектурой Skylake, увидевшей свет ещё в 2015 году. Однако удивительно другое: по какой-то причине Intel не стремится менять и характеристики, не требующие каких-то заметных преобразований. Например, официально Coffee Lake Refresh продолжают ориентироваться на двухканальную DDR4-2666-память, в то время как компания AMD раз за разом добавляет своим процессорам поддержку более скоростных режимов, дойдя в последних версиях мобильных Raven Ridge уже до DDR4-3200. Единственное же, что в ответ сделала Intel, – увеличила до 128 Гбайт объём памяти, поддерживаемой в системах на базе Coffee Lake Refresh.
Тем не менее, несмотря на отсутствие изменений в микроархитектуре, Intel пока удаётся выпускать вполне интересные модели экстенсивными методами – наращивая число вычислительных ядер и тактовые частоты. Первая волна анонсов Coffee Lake Refresh, прошедшая в октябре прошлого года, принесла с собой три флагманских оверклокерских процессора, покоривших новые рубежи быстродействия: восьмиядерные Core i9-9900K и Core i7-9700K, а также шестиядерный Core i5-9600K. Со второй, новогодней волной список новейших процессоров пополнился ещё шестью моделями CPU попроще. В итоге полная номенклатура Coffee Lake Refresh стала выглядеть следующим образом.
|Ядра/ потоки
|Базовая частота, ГГц
|Турбочастота, ГГц
|L3-кеш, Мбайт
|iGPU
|Частота iGPU, ГГц
|Память
|TDP, Вт
|Цена
|
Core i9‑9900K |8/16
|3,6
|5,0
|16
|UHD 630
|1,2
|DDR4‑2666
|95
|$488
|
Core i9‑9900KF |8/16
|3,6
|5,0
|16
|Нет
|-
|DDR4‑2666
|95
|$488
|
Core i7‑9700K |8/8
|3,6
|4,9
|12
|UHD 630
|1,2
|DDR4‑2666
|95
|$374
|
Core i7‑9700KF |8/8
|3,6
|4,9
|12
|Нет
|-
|DDR4‑2666
|95
|$374
|
Core i5‑9600K |6/6
|3,7
|4,6
|9
|UHD 630
|1,15
|DDR4‑2666
|95
|$262
|
Core i5‑9600KF |6/6
|3,7
|4,6
|9
|Нет
|-
|DDR4‑2666
|95
|$262
|
Core i5‑9400 |6/6
|2,9
|4,1
|9
|UHD 630
|1,05
|DDR4‑2666
|65
|$182
|
Core i5‑9400F |6/6
|2,9
|4,1
|9
|Нет
|-
|DDR4‑2666
|65
|$182
|
Core i3‑9350KF |4/4
|4,0
|4,6
|8
|Нет
|-
|DDR4‑2400
|91
|$173
Основная часть процессоров, добавившаяся к выпущенным в первую очередь оверклокерским K-моделям позднее, состоит из чипов, лишённых встроенного графического ядра. Технически Core i9-9900KF, Core i7-9700KF и Core i5-9600KF основываются на точно таком же полупроводниковом фундаменте и имеют абсолютно аналогичные характеристики, как и Core i9-9900K, Core i7-9700K и Core i5-9600K, отличаясь лишь в том, что они не предлагают встроенного GPU, который в них аппаратно блокируется на этапе производства.
Но в списке новинок второй волны можно увидеть и действительно новые модели. В первую очередь это Core i3-9350KF – единственный среди Coffee Lake Refresh четырёхъядерный процессор с разблокированным множителем. Если закрыть глаза на отсутствие в нём встроенного GPU, его можно посчитать обновлённой версией Core i3-8350K, которая была ускорена за счёт добавления технологии Turbo Boost 2.0 и обретённой способности автоматического разгона до 4,6 ГГц.
Ещё одной более-менее полноправной новинкой во второй волне можно посчитать Core i5-9400 и его лишённого встроенной графики собрата Core i9-9400F. Ценность этих моделей заключается в том, что с их помощью Intel существенно снизила стоимость младших шестиядерных Coffee Lake Refresh, позволив использовать новейшее поколение CPU в конфигурациях базового уровня. Впрочем, формальных отличий Core i5-9400 от прошлогоднего хита, Core i5-8400, не так уж и много. Тактовые частоты увеличились лишь на 100 МГц, что, скорее всего, связано с желанием микропроцессорного гиганта оставить свои младшие шестиядерники в рамках 65-ваттного теплового пакета. В результате разрыв в максимальных частотах в турборежиме между старшим и младшим шестиядерными процессорами в семействе Coffee Lake Refresh увеличился до 500 МГц, в то время как в поколении Coffee Lake он составлял лишь 300 МГц.
Если исходить из спецификаций, то складывается ощущение, что козырнуть новым Core i5-9400 и Core i5-9400F на фоне старого Core i5-8400 особенно-то и нечем. Однако спецификации в данном случае дают не совсем полную картину. Во время анонса первых Coffee Lake Refresh компания Intel говорила в том числе и о преимуществах косвенного характера. Например, для нового поколения чипов была обещана смена внутреннего термоинтерфейса: место полимерной термопасты должен был занять высокоэффективный бесфлюсовый припой. Но имеет ли это отношение к младшим шестиядерным процессорам Core девятого поколения? Оказывается, не всегда.
Так уж получилось, что, выпуская процессоры Coffee Lake Refresh, компания Intel сгребла в общую кучу несколько разных вариантов полупроводниковых кристаллов с техпроцессом 14++ нм, и не все из них в действительности новые. В основе процессоров Core девятого поколения могут лежать как полупроводниковые кристаллы, спроектированные для них специально, так и относительно старые варианты кремния, которые активно использовались в том числе и в процессорах восьмого поколения, причисляемых к семейству Coffee Lake.
В частности, на данный момент известно о существовании по меньшей мере четырёх степпингов кристаллов, которые устанавливаются в те или иные массовые процессоры Core с номерами из девятитысячной серии:
Таким образом, Core i5-9400F, о котором мы ведём речь в этом обзоре, – это белая ворона: единственный в своём роде процессор, который по внутреннему устройству отличается от остальных шестиядерных и восьмиядерных собратьев поколения Coffee Lake Refresh. Строго говоря, он представляет собой не урезанную или замедленную версию Core i5-9600K или Core i5-9400, а слегка разогнанный вариант старого Core i5-8400 с отключённым графическим ядром.
И надо сказать, проявляется это не только на скриншотах диагностических утилит, которые покажут для Core i5-9400F старый степпинг U0 вместо нового P0. В Core i5-9400F в действительности вообще нет никаких нововведений, свойственных Coffee Lake Refresh. В частности, при сборке этих чипов пайка кристалла к теплораспределительной крышке не применяется, а внутренним термоинтерфейсом служит точно такая же полимерная термопаста, которая использовалась в процессорах Coffee Lake.
Кроме того, Core i5-9400F, в отличие от остальных процессоров поколения Coffee Lake Refresh, собираются на печатной плате с более тонким текстолитом — таком же, как применялся для обычных Coffee Lake.
И более того, даже форма теплораспределительной крышки у Core i5-9400F выдаёт родство этого процессора с Core восьмого поколения. Ведь у чистокровных Coffee Lake Refresh крышка изменилась.
Иными словами, нет никаких сомнений, что Core i5-9400F – на самом деле никакой не Coffee Lake Refresh, а отбраковка процессоров предыдущего поколения с отключённым графическим ядром. Причём это касается стопроцентно всех поставляющихся в настоящее время серийных Core i5-9400F, что во многом объясняет широкую доступность этих процессоров в то время, когда с массовыми поставками остальных Coffee Lake Refresh продолжают наблюдаться заметные проблемы. Например, формально анонсированный одновременно с Core i5-9400F его «полноценный» собрат со встроенной графикой UHD Graphics 630, который должен базироваться на «честном» кристалле степпинга P0, в розничной продаже отсутствует до сих пор.
В то же время микропроцессорный гигант не исключает возможности перевода Core i5-9400F на «правильный» степпинг P0 в среднесрочной перспективе. Но произойдёт это, очевидно, лишь тогда, когда все скопившиеся на складах компании Coffee Lake с дефектным встроенным GPU будут успешно распроданы.
Впрочем, для большинства пользователей такой факт подлога кремниевых кристаллов вряд ли будет иметь какое-то значение. Как бы то ни было, Core i5-9400F – настоящий шестиядерник без поддержки Hyper-Threading, который при любой нагрузке работает на 100 МГц быстрее своего предшественника, Core i5-8400. А это значит, что по частотной формуле Core i5-9400F соответствует на $10 более дорогому Core i5-8500.
Несмотря на то, что для Core i5-9400F заявляется сравнительно невысокая базовая частота 2,9 ГГц, в реальности этот процессор способен работать значительно быстрее благодаря технологии Turbo Boost 2.0. При включённой функции Multi-Core Enhancements (то есть в режиме по умолчанию для подавляющего большинства материнских плат) при полной нагрузке Core i5-9400F способен держать частоту 3,9 ГГц, разгоняясь при нагрузке на одно ядро до 4,1 ГГц.
|
Номинальная частота |
Максимальная частота Turbo Boost 2.0
|
1 ядро |
2 ядра |
3 ядра |
4 ядра |
5 ядер |
6 ядер
|
Core i5-8400 |2,8 ГГц
|4,0 ГГц
|3,9 ГГц
|3,9 ГГц
|3,9 ГГц
|3,8 ГГц
|3,8 ГГц
|
Core i5-8500 |3,0 ГГц
|4,1 ГГц
|4,0 ГГц
|4,0 ГГц
|4,0 ГГц
|3,9 ГГц
|3,9 ГГц
|
Core i5-9400(F) |2,9 ГГц
|4,1 ГГц
|4,0 ГГц
|4,0 ГГц
|4,0 ГГц
|3,9 ГГц
|3,9 ГГц
Ни о каких разгонных возможностях при этом речь, естественно, не идёт. Самое большее, на что способен Core i5-9400F, – это работа на максимально разрешённой в рамках технологии Turbo Boost 2.0 частоте. А на материнских платах с наборами логики H370, B360 или H310 не получится воспользоваться и более быстрой, нежели DDR4-2666, памятью. Более скоростные режимы доступны исключительно на платах со старшими чипсетами Z370 или Z390.
⇡#Описание тестовых систем и методики тестирования
Основные альтернативы для Core i5-9400F хорошо понятны. Это либо прошлый младший шестиядерник Core i5-8400, либо младший шестиядерный процессор AMD, Ryzen 5 2600 — оба играют в том же ценовом сегменте. Тем не менее для тестирования мы решили собрать более представительную компанию участников, включив в неё и более дорогие массовые процессоры как семейств Core i5 и Ryzen 5, так и Core i7, Core i9 и Ryzen 7.
В конечном итоге список задействованных комплектующих получил следующий вид:
Все интеловские процессоры тестировались без отключения Multi-Core Enhancements, то есть с отсутствием каких-либо ограничений по энергопотреблению. Мы отдаём себе отчёт в том, что данный режим несколько расходится со спецификациями Intel, однако большинство пользователей волей-неволей использует процессоры именно так. Дело в том, что все без исключения производители материнских плат активируют функцию Multi-Core Enhancements по умолчанию, а некоторые даже прячут настройки для её отключения, и какого-либо перелома в этой тенденции не предвидится.
Тестирование выполнялось в операционной системе Microsoft Windows 10 Enterprise (v1809) Build 17137.1 с использованием следующего комплекта драйверов:
Описание использовавшихся для измерения вычислительной производительности инструментов:
**Комплексные бенчмарки**: **Приложения**: **Игры**:
Во всех игровых тестах в качестве результатов приводится среднее количество кадров в секунду, а также 0,01-квантиль (первая перцентиль) для значений FPS. Использование 0,01-квантиля вместо показателей минимального FPS обусловлено стремлением очистить результаты от случайных всплесков производительности, которые были спровоцированы не связанными напрямую с работой основных компонентов платформы причинами.
⇡#Производительность в комплексных тестах
Комплексную производительность в общеупотребительных приложениях мы оцениваем при помощи бенчмарка SYSmark 2018. Это единственный в своём роде тест, который измеряет скорость работы систем при решении реальных задач в распространённых программах, список которых включает Acrobat Pro DC, Photoshop CC, Lightroom Classic CC, BowPad 2.3, CyberLink PowerDirector 15, FileZilla 3, Chrome 65, Excel 2016, OneNote 2016, Outlook 2016, PowerPoint 2016 и Word 2016.
Стоит заметить, что многие программы для дома и офиса остаются недостаточно хорошо оптимизированными под современные многоядерные процессоры, поэтому в SYSmark 2018 большое значение имеет и однопоточная производительность процессоров. Это приводит к тому, что по общему результату работающий на частотах 3,9-4,1 ГГц шестиядерный Core i5-9400F смотрится достаточно уверенно: он чуть быстрее, чем Core i5-8400, и почти дотягивается до показателя восьмиядерного Ryzen 7 2700X. Впрочем, если сравнивать Core i5-9400F исключительно с процессорами Intel, то от решений более высокого класса он серьёзно отстаёт. Даже Core i5-9600K быстрее младшего шестиядерного Coffee Lake Refresh на весьма заметные 15 %.
Второй используемый нами бенчмарк – 3DMark Time Spy Extreme — имеет игровую ориентацию. Он, напротив, отличается качественной оптимизацией под многопоточность и современные наборы инструкций. И на диаграмме полученных в нём результатов Core i5-9400F оказывается ближе к нижней части, опережая лишь своего предшественника, Core i5-8400, и младший шестиядерный процессор конкурента, Ryzen 5 2600. Впрочем, ожидать большего от чипа ценой $182 было бы странно. Хотя Core i5-9400F и имеет арсенал из шести вычислительных ядер, по сегодняшним меркам это скорее компромиссное предложение.
⇡#Производительность в приложениях
Если говорить о приложениях для создания контента, то здесь правит бал принцип «больше ядер – лучше». Соответственно, шестиядерный Core i5-9400F без поддержки Hyper-Threading и с достаточно невысокими тактовыми частотами выглядит не самым рациональным выбором. Единственная заслуга этого процессора – небольшое превосходство над Core i5-8400. Но даже немного более доступные шестиядерники AMD могут предложить заметно более высокую производительность благодаря виртуальной многопоточности SMT. Иными словами, если ваша задача состоит в подборе подходящей конфигурации для работы, серьёзно задумываться о Core i5-9400F мы бы не советовали даже в условиях ограниченного бюджета. По сегодняшним меркам это далеко не оптимальный вариант.
Рендеринг:
Обработка фото:
Работа с видео:
Перекодирование видео:
Компиляция:
Архивация:
Шахматы:
⇡#Тесты в разрешении 1080p (FullHD)
Насколько блекло Core i5-9400F смотрелся в приложениях для создания контента, настолько удачным вариантом он кажется в качестве выбора для игровых систем. Конечно, процессоры классов Core i7 или Core i9, как и более быстрые по частоте Core i5, способны предложить ещё более высокую производительность в современных игровых приложениях. Например, разрыв в производительности между Core i5-9400F и Core i9-9900K составляет в среднем весьма внушительные 20 %, достигая в предельных случаях 40-процентной величины. Однако по сравнению с теми процессорами, которые сегодня предлагает AMD, Core i5-9400F – настоящий герой, обходящий по игровой производительности даже в полтора раза более дорогой флагманский Ryzen 7 2700X.
И это значит, что Core i5-9400F, как и его предшественник, Core i5-8400, сохраняет звание весьма рационального выбора для игровых систем среднего уровня. Однако нужно иметь в виду, что способность параллельного исполнения лишь шести потоков – его достаточно ощутимое слабое место. Для современных игр такой степени параллелизма всё ещё вполне хватает, но запущенные в фоновом режиме какие-то сравнительно «тяжёлые» процессы сразу же сделают игру некомфортной. Чуть ниже мы поговорим об этом немного подробнее.
Увеличение разрешения до популярного нынче формата 2560 × 1440 меняет немногое. Core i5-9400F как основа игровой конфигурации продолжает смотреться вполне достойно, превосходя в большинстве случаев системы на процессорах AMD как по средней частоте кадров, так и по минимальной. Однако иногда недостаток в возможностях многопоточной обработки всё-таки прослеживается, и Core i5-9400F может отставать от старших предложений Intel достаточно существенно, особенно если брать во внимание минимальный FPS.
Тем не менее нужно понимать, что любые представленные в этом тесте процессоры дают вполне достаточную производительность для игр, и заметную разницу в FPS смогут увидеть лишь обладатели мониторов c увеличенной частой развёртки.
⇡#Производительность при стриминге
Многие геймеры выбирают мощные процессоры, исходя из желания заниматься потоковой трансляцией. Поэтому мы добавили в тестирование ещё один игровой сценарий – стриминг силами CPU. Для тестов стриминга была использована игра Far Cry New Dawn. За кодирование видеопотока отвечало популярное приложение Open Broadcasting System (OBS) Studio. В нём мы использовали программный кодер x264. Трансляция проводилась в разрешении 1920 × 1080 при частоте кадров 60 FPS и фиксированном битрейте 6 Мбит/с.
И вот здесь-то и оказалось возможным увидеть недостаток производительности Core i5-9400F. Этот процессор попросту не способен обеспечить гладкую трансляцию ни с профилем кодирования fast, ни с профилем faster. При обоих вариантах настроек трансляция сопровождается существенным числом выпадающих кадров, которые не успевают кодироваться за отведённое для этого время. Применимым же для Core i5-9400F оказывается лишь профиль veryfast, который, впрочем, отличается достаточно скверным качеством сжатой картинки.
Два приведённых ниже графика наглядно показывают, что даже шестиядерные процессоры AMD Ryzen 5 способны почти без нареканий совладать с профилем кодирования fast, в то время как Core i5-9400F доставляет до точки назначения неприемлемо низкое количество кадров.
В то же время у процессоров AMD при потоковой трансляции наблюдается другая проблема: невысокий показатель FPS на передающей стороне, что тоже способно сказаться на качестве трансляции не лучшим образом.
Этот раздел тестирования вряд ли способен принести какие-то откровения. Ведь как мы установили ранее, Core i5-9400F – это аналог Core i5-8400 с чуть более высокой частотой и отключённой графикой. Следовательно, его потребление должно быть примерно таким же.
Подтверждают это следующие графики, которые построены при помощи средств мониторинга блока питания Thermaltake Toughpower DPS G, способных контролировать потребляемую и выдаваемую электрическую мощность. Диаграммы показывают полное потребление систем (без монитора), измеренное на выходе блока питания, то есть представляющее собой сумму энергопотребления всех задействованных в системе компонентов. КПД самого блока питания в данном случае в расчёт не берётся. В качестве нагрузки при измерениях использовалась утилита Prime95 29.6 и тест Cinebench R20 в однопоточном и многопоточном режимах.
Подобную картину мы и ожидали увидеть. На фоне того, что в семействе Coffee Lake Refresh процессоры Intel резко нарастили свои энергетические аппетиты, Core i5-9400F продолжает оставаться весьма экономичным чипом. Даже при AVX-нагрузке система, основанная на нём, потребляет порядка 125 Вт, что меньше потребления конфигураций на многих шестиядерниках последних поколений. Вместе с этим Core i5-9400F в разы экономичнее флагманских Coffee Lake Refresh и может даже похвастать более скромным потреблением, чем у процессоров AMD с их 65-ваттным тепловым пакетом. А это значит, что его можно посоветовать использовать в системах, собираемых в компактных корпусах.
Откровенно говоря, Intel Core i5-9400F оказался не совсем тем, что мы ожидали от представителя семейства Coffee Lake Refresh без графического ядра. То, что этот процессор лишили встроенного GPU, не дало пользователям ровным счётом никаких преимуществ. Все базовые технические характеристики Core i5-9400F, включая число ядер, рабочие частоты и тепловыделение, остались теми же самыми, что и у полнофункционального младшего шестиядерника последнего поколения, и, даже более того, неизменной оказалась и цена. И это безошибочно выдаёт цель выпуска такого чипа: с его помощью Intel хочет попытаться погасить дефицит, пока полноценные модели Core девятого поколения из-за производственных проблем продолжают поставляться в недостаточных для удовлетворения спроса количествах.
При этом сам Core i5-9400F от недопоставок совершенно не страдает. Intel приняла решение использовать для производства таких процессоров отбраковку, оставшуюся со времён Coffee Lake, и благодаря этому купить Core i5-9400F, в отличие от Core i5-9400, не составляет никакого труда, причём зачастую этот процессор продаётся даже дешевле официально установленной цены. Правда, при этом компания была вынуждена пойти на риск некоторых репутационных потерь, ведь фактически она совершает подлог и под видом младшего шестиядерного Coffee Lake Refresh предлагает купить чип прошлого поколения.
Впрочем, в данном случае это не столь важно. Core i5-9400F обещает лишь слегка лучшую производительность по сравнению с показателями Core i5-8400, и это он вполне обеспечивает за счёт увеличенной на 100 МГц тактовой частоты. Главная же проблема рассмотренной новинки заключается совсем не в этом. Когда на рынок пришёл Core i5-8400, ему удалось завоевать репутацию очень привлекательного по соотношению потребительских качеств процессора как минимум потому, что он оказался самым доступным по цене шестиядерником. Core i5-9400F ничем таким похвастать уже не может. Сегодня примерно за ту же сумму (а где-то даже дешевле) можно купить шестиядерный Ryzen 5 2600, который, в отличие от Core i5-9400F, предлагает технологию многопоточности SMT и поддерживает разгон. И это во многих случаях делает его более выгодным приобретением.
Фактически в текущих условиях Core i5-9400F может представлять интерес исключительно как основа игровых компьютеров базового уровня. В современных играх он действительно способен обеспечить более высокий уровень FPS не только по сравнению с шестиядерными Ryzen 5, но и даже по сравнению с восьмиядерными Ryzen 7. Однако в ресурсоёмких приложениях ситуация меняется на прямо противоположную – в этом случае решения для платформы Socket AM4 явно предпочтительнее.
Исходя из этого и стоит принимать решение о выборе. Если персональный компьютер приобретается целенаправленно для прохождения игр, то именно Core i5-9400F будет оптимальным вариантом в средней ценовой категории. Но если, помимо этого, на систему планируется возлагать хоть какую-то работу над созданием и редактированием цифрового контента, например хотя бы даже трансляцию прохождения игр, то предлагаемых недорогим шестиядерником Intel ресурсов окажется недостаточно и ориентироваться лучше либо на конкурирующие, либо на более дорогие решения с восемью вычислительными ядрами. |
985,788 | GeForce RTX больше не нужен? Тесты трассировки лучей на ускорителях GeForce GTX 10 и 16 | После того как NVIDIA продемонстрировала трассировку лучей в реальном времени на видеокартах серии GeForce RTX, трудно сомневаться в том, что именно за этой технологией (в разумном сочетании с алгоритмом растеризации) будущее компьютерных игр. Однако графические процессоры на основе архитектуры Turing со специализированными RT-ядрами до недавнего времени считались единственной категорией дискретных GPU, которая располагает подходящей для этого вычислительной мощностью.
Как показали тесты первых игр, освоивших Ray Tracing (Battlefield V, Metro Exodus и Shadow of the Tomb Raider), даже ускорители GeForce RTX (особенно младший из них — RTX 2060) испытывают существенное падение частоты смены кадров в задачах гибридного рендеринга. Несмотря на первые успехи, трассировку лучей в реальном времени еще нельзя считать зрелой технологией. Лишь тогда, когда не только самые передовые и дорогостоящие устройства, но и графические карты среднего ценового уровня достигнут прежних стандартов быстродействия в играх новой волны, можно будет объявить, что смена парадигм, запущенная компанией Дженсена Хуанга, наконец, совершилась.
**Трассировка лучей на «Паскалях» — за и против**
Но уже сейчас, пока еще не сказано ни слова о будущем преемнике архитектуры Turing, NVIDIA решила подстегнуть прогресс. На мероприятии GPU Technology Conference в прошлом месяце зеленая команда сообщила, что ускорители на чипах Pascal, а также младшие представители семейства Turing (серия GeForce GTX 16) приобретут функцию трассировки лучей в реальном времени наравне с продуктами под маркой RTX. Сегодня обещанный драйвер уже можно скачать на официальном сайте NVIDIA, а список устройств включает модели семейства GeForce 10, начиная с GeForce GTX 1060 (версия 6 Гбайт), профессиональный ускоритель TITAN V на чипе Volta, и, разумеется, новоприбывшие модели средней ценовой категории на чипе TU116 — GeForce GTX 1660 и GTX 1660 Ti. Обновление коснулось и ноутбуков с соответствующими GPU.
С технической точки зрения здесь нет ничего сверхъестественного. Графические процессоры с унифицированными шейдерными блоками могли выполнять Ray Tracing задолго до появления архитектуры Turing, хотя в то время не располагали достаточным быстродействием для того, чтобы эта возможность была востребована в играх. Кроме того, отсутствовал единый стандарт программных методов, помимо закрытых API наподобие фирменного NVIDIA OptiX. Теперь, когда существует расширение DXR для Direct3D 12 и аналогичные библиотеки в интерфейсе программирования Vulkan, игровой движок может обращаться к ним вне зависимости от того, оснащен ли графический процессор специализированной логикой — лишь бы драйвер давал такую возможность. У чипов Turing для этой цели есть отдельные RT-ядра, а в GPU архитектуры Pascal и процессоре TU116 трассировка лучей реализована в формате вычислений общего назначения на массиве шейдерных ALU.
Однако все, что нам известно об архитектуре Turing со слов самой NVIDIA, говорит о том, что Pascal не годится для приложений с поддержкой DXR. В прошлогодней презентации, посвященной флагманским моделям семейства Turing — GeForce RTX 2080 и RTX 2080 Ti — инженеры приводили следующие выкладки. Если бросить все ресурсы лучшей из потребительских видеокарт прошлого поколения — GeForce GTX 1080 Ti — на вычисления трассировки лучей, то итоговая производительность не превысит 11 % от того, на что в теории способен RTX 2080 Ti. Не менее важно и то, что свободные CUDA-ядра чипа Turing в то же время можно использовать для параллельной обработки других компонентов изображения — выполнения шейдерных программ, очереди неграфических расчетов Direct3D при асинхронном исполнении и так далее.
В реальных играх ситуация сложнее, ведь на существующем железе разработчики дозированно пользуются функциями DXR, а львиную долю вычислительной нагрузки по-прежнему занимает растеризация и шейдерные инструкции. К тому же часть различных эффектов, которые создаются при помощи трассировки лучей, неплохо исполняются и на CUDA-ядрах чипов Pascal. К примеру, зеркальные поверхности в Battlefield V не подразумевают вторичного отражения лучей, а следовательно, являются посильной нагрузкой для мощных видеокарт прошлого поколения. То же относится и к теням в Shadow of the Tomb Raider, хотя рендеринг сложных теней, сформированных несколькими источниками света, уже представляет собой более трудную задачу. А вот глобальное освещение в Metro Exodus с трудом дается даже «Тьюрингу», и от Pascal нельзя ожидать в какой-либо степени сопоставимых результатов.
Как ни крути, речь идет о многократной разнице в теоретическом быстродействии между представителями архитектуры Turing и их ближайшими аналогами на кремнии Pascal. Причем в пользу Turing играет не только присутствие RT-ядер, но и многочисленные усовершенствования общего характера, свойственные ускорителям нового поколения. Так, чипы Turing умеют параллельно выполнять операции над вещественными (FP32) и целочисленными (INT) данными, несут большой объем локальной кеш-памяти и отдельные CUDA-ядра для расчетов сниженной точности (FP16). Все это значит, что Turing не только лучше справляется с шейдерными программами, но и может сравнительно эффективно обсчитывать трассировку лучей без специализированных блоков. Ведь настолько ресурсоемким рендеринг при помощи Ray Tracing делает не только и не столько поиск пересечений между лучами и элементами геометрии (которым занимаются RT-ядра), сколько вычисление цвета в точке пересечения (shading). И между прочим, перечисленные достоинства архитектуры Turing в полной мере относятся к GeForce GTX 1660 и GTX 1660 Ti, хотя в чипе TU116 нет RT-ядер, поэтому тесты этих видеокарт с программной трассировкой лучей представляют отдельный интерес.
Но довольно теории, ведь мы уже собрали данные о производительности «Паскалей» (а также младших «Тьюрингов») в Battlefield V, Metro Exodus и Shadow of the Tomb Raider на основе собственных измерений. Заметим, что ни драйвер, ни сами игры не регулируют количество лучей для того, чтобы снизить нагрузку на GPU без RT-ядер, а значит, качество эффектов на GeForce GTX и GeForce RTX должно быть одинаковым.
⇡#
**Тестовый стенд, методика тестирования**
|Тестовый стенд
|CPU
|Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
|Материнская плата
|ASUS MAXIMUS XI APEX
|Оперативная память
|G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 x 8 Гбайт (3200 МГц, CL14)
|ПЗУ
|Intel SSD 760p, 1024 Гбайт
|Блок питания
|Corsair AX1200i, 1200 Вт
|Система охлаждения CPU
|Corsair Hydro Series H115i
|Корпус
|CoolerMaster Test Bench V1.0
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|ПО для GPU NVIDIA
|NVIDIA GeForce RTX 20
|NVIDIA GeForce Game Ready Driver 419.67
|NVIDIA GeForce GTX 10/16
|NVIDIA GeForce Game Ready Driver 425.31
|Игровые тесты
|Игра
|API
|Настройки, метод тестирования
|Полноэкранное сглаживание
|1920 × 1080 / 2560 × 1440
|3840 × 2160
|Battlefield V
|DirectX 12
|OCAT, миссия Liberte. Макс. качество графики
|TAA High
|TAA High
|Metro Exodus
|DirectX 12
|Встроенный бенчмарк. Профиль качества графики Ultra
|TAA
|TAA
|Shadow of the Tomb Raider
|DirectX 12
|Встроенный бенчмарк. Макс. качество графики
|SMAA 4x
|Выкл.
Показатели средней и минимальной кадровых частот выводятся из массива времени рендеринга индивидуальных кадров, который записывает встроенный бенчмарк (Metro Exodus, Shadow of the Tomb Raider) или утилита OCAT, если в игре его нет (Battlefield V).
Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел выбирается значение, соответствующее 1-му процентилю распределения.
**Участники тестирования**
В тестировании производительности приняли участие следующие видеокарты:
**Battlefield V**
Благодаря тому, что Battlefield V сама по себе является довольно нетребовательной игрой (особенно в режимах 1080p и 1440p), а трассировка лучей в ней применяется фрагментарно, испытание GeForce 10-й серии с опцией DXR принесло обнадеживающие результаты. Впрочем, из всех моделей без поддержки Ray Tracing на уровне кремния нам пришлось ограничиться моделями GTX 1070/1070 Ti и GTX 1080/1080 Ti. Игры Electronic Arts с подозрением реагируют на частую смену конфигурации железа и блокируют пользователя на период в одни или несколько суток. Поэтому замеры производительности GeForce GTX 1060 и двух устройств серии GeForce GTX 16 появятся в этой статье позже, как только Battlefield V снимет ограничения с нашей тестовой машины.
В процентном выражении любой из участников тестирования испытывает примерно одинаковое падение быстродействия при различных установках качества трассировки лучей вне зависимости от разрешения экрана. Так, быстродействие видеокарт под маркой GeForce RTX 20 снижается на 28–43 % при низком и среднем качестве эффектов DXR, а при высоком и максимальном — на 37–53 %.
Если речь идет о старших моделях семейства GeForce 10, то на уровнях трассировки лучей Low и Medium игра теряет от 36 до 42 % FPS, а при высоком качестве (настройки High и Ultra) DXR съедает уже 54–67 % частоты смены кадров. Заметим, что во многих, если не в большинстве игровых сцен Battlefield V нет выраженной разницы между настройками Low и Medium, а также между High и Ultra — ни по четкости изображения, ни по быстродействию. В надежде на то, что графические процессоры Pascal окажутся более чувствительными к этому параметру, мы провели тесты при всех четырех настройках. И действительно, проявились определенные различия, но только при разрешении 2160p и в пределах 6% FPS.
В абсолютных показателях любой из старших ускорителей на чипах Pascal может поддерживать кадровую частоту выше 60 FPS в режиме 1080p при сниженном качестве отражений, а GeForce GTX 1080 Ti претендует на аналогичный результат даже при трассировке на уровне High. Но стоит перейти к разрешению 1440p, и уже лишь GeForce GTX 1080 и GTX 1080 Ti обеспечивают комфортный фреймрейт на уровне 60 FPS и выше при качестве трассировки лучей Low или Medium, а в режиме 4К ни одна из карт прошлого поколения не обладает подходящей вычислительной мощностью (как, впрочем, и любой Turing за исключением флагманского GeForce RTX 2080 Ti).
Если искать параллели между конкретными ускорителями под маркой GeForce GTX 10 и GeForce RTX 20, то лучшая модель прошлого поколения (GeForce GTX 1080 Ti), которая в задачах стандартного рендеринга без DXR является аналогом GeForce RTX 2080, опустилась на уровень GeForce RTX 2070 при сниженном качестве трассировки лучей, а при высоком может бороться разве что с GeForce RTX 2060.
**Дополнение:** результаты GeForce GTX 1060, GTX 1660 и GTX 1660 Ti.
В тестах GeForce GTX 1660 и GTX 1660 Ti можно заметить слабые признаки того, что архитектура Turing и вправду лучше справляется с трассировкой лучей даже без поддержки RT-ядер по сравнению с видеокартами семейства Pascal аналогичного уровня — GeForce GTX 1070 и GTX 1070 Ti. При разрешениях 1080p и 1440p разница в потере быстродействия, которую GPU испытывает при активации DXR, между ускорителями 16-й серии, с одной стороны, и картами на чипе GP104, с другой, возникает при высоком и максимальном качестве эффектов трассировки лучей, пусть она и не превышает нескольких процентов. А вот в режиме 2160p при таких же настройках графический процессор TU116 уже выдерживает дополнительную нагрузку заметно лучше, чем «Паскали». Впрочем, последнее относится именно к GTX 1660 Ti: модель без приставки Ti с гибридным рендерингом в 4К откровенно не справляется.
Результаты двух моделей GeForce 16-й серии в абсолютных значениях частоты смены кадров также выглядят обнадеживающе. В режиме 1080p GeForce GTX 1660 и GTX 1660 Ti поддерживают около 60 FPS при низком и среднем качестве эффектов DXR, а при разрешении 1440p можно рассчитывать по меньшей мере на 30. Только в 4К с трассировкой лучей чипу TU116 делать уже нечего.
Что касается GeForce GTX 1060, то при условно низком разрешении экрана (1080p и 1440p) младший ускоритель из списка моделей, допущенных к трассировке лучей в реальном времени, утратил от 35 до 39 % кадровой частоты с низкими и средними настройками DXR, и от 57 до 64 % с высокими и максимальными. В этом GTX 1060 мало отличается от своих ближайших соседей по серии GeForce 10. Однако, как и GeForce GTX 1660, эта видеокарта получает катастрофический удар по быстродействию в 4К: теряется от 59 до 95 % изначальной скорости. Тем не менее, играть в Battlefield V с DXR на GeForce GTX 1060 все-таки можно, но придется согласиться на средний FPS немногим больше 50 в режиме 1080p и 30 в 1440p (если не жадничать с настройками качества).
|Battlefield V, макс. Качество
|1920 × 1080 TAA
|RT Off
|RT Low
|RT Medium
|RT High
|RT Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-28%
|-28%
|-37%
|-39%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-34%
|-35%
|-43%
|-44%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-35%
|-36%
|-46%
|-45%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-42%
|-43%
|-50%
|-51%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-38%
|-39%
|-55%
|-58%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-35%
|-36%
|-50%
|-53%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-40%
|-39%
|-54%
|-58%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-41%
|-41%
|-57%
|-61%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-40%
|-41%
|-57%
|-59%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-38%
|-39%
|-57%
|-61%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-36%
|-37%
|-57%
|-60%
|Battlefield V, макс. Качество
|2560 × 1440 TAA
|RT Off
|RT Low
|RT Medium
|RT High
|RT Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-33%
|-34%
|-44%
|-45%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-37%
|-38%
|-47%
|-49%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-36%
|-36%
|-48%
|-48%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-41%
|-42%
|-51%
|-52%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-46%
|-45%
|-58%
|-60%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-39%
|-44%
|-55%
|-59%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-40%
|-40%
|-59%
|-62%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-36%
|-39%
|-59%
|-63%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-39%
|-39%
|-58%
|-62%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-38%
|-38%
|-59%
|-63%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-35%
|-39%
|-62%
|-64%
|Battlefield V, макс. Качество
|3840 × 2160 TAA
|RT Off
|RT Low
|RT Medium
|RT High
|RT Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-30%
|-30%
|-44%
|-47%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-31%
|-32%
|-46%
|-49%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-40%
|-38%
|-53%
|-52%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-28%
|-30%
|-44%
|-53%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-34%
|-34%
|-52%
|-56%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-66%
|-71%
|-76%
|-79%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-36%
|-37%
|-60%
|-63%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-40%
|-43%
|-64%
|-67%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-38%
|-42%
|-62%
|-65%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-36%
|-42%
|-63%
|-66%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-59%
|-71%
|-92%
|-95%
В отличие от Battlefield V, графический движок Metro Exodus не дает пощады видеокартам, лишенным аппаратных функций трассировки лучей. Так, в режиме 1080p старшие представители семейства Turing (начиная с GeForce RTX 2060 и заканчивая RTX 2080 Ti) понесли урон в диапазоне от 18 до 20 % FPS при высоком качестве трассировки и от 27 до 31 % — при низком. Другие же участники тестирования в таких же условиях теряют 53–59 и 66–71 % исходной частоты смены кадров. При разрешении 1440p потери вычислительной мощности на трассировку лучей составляют 21–27 и 31–38 % для моделей GeForce RTX 20, а также 59–64 и 72–76 % для всех остальных — в зависимости от того, какая из двух опций качества активирована в бенчмарке.
Заметим, что, пусть младшие «Тьюринги» (GeForce GTX 1660 и GTX 1660 Ti) и имеют преимущество в программной трассировке лучей перед ускорителями на чипах Pascal благодаря общим оптимизациям новой архитектуры, в Metro Exodus они испытывают не менее сильное падение быстродействия, чем GeForce GTX 1060. Среди видеокарт без аппаратной поддержки DXR лучше всего держатся GeForce GTX 1080 и GTX 1080 Ti — просто за счет крупного массива шейдерных ALU.
Однако процентные оценки быстродействия еще не дают ответа на вопрос, можно ли с комфортом играть в Metro Exodus на ускорителях без аппаратных RT-ядер в условиях гибридного рендеринга. Результаты тестирования легко описать одним примером: GeForce GTX 1080 Ti обеспечивает не меньше 60 FPS в режимах 1080p и 1440p при ультравысоком качестве изображения и без трассировки лучей. Но когда были включены эффекты DXR, бывший флагман преодолел отметку 30 FPS только при разрешении 1080p и низшем качестве трассировки лучей (опция High), которое допускает Metro Exodus. Модель GeForce RTX 2060, которая сама по себе не блещет результатами в этой игре, в любых тестах с DXR демонстрирует более высокую производительность. Что и говорить о более слабых представителях серии GeForce GTX 10: к примеру, GeForce GTX 1060 с трассировкой лучей в Metro Exodus годится только для съемки скриншотов.
Что касается последних новинок NVIDIA — GeForce GTX 1660 и GTX 1660 Ti, — то результаты на уровне GeForce GTX 1070 и GTX 1070 Ti в тестах гибридного рендеринга едва ли можно рассматривать как достижение, коль скоро и без трассировки лучей эти представители прошлого и настоящего поколений видеокарт соотносятся примерно так же.
|Metro Exodus, профиль Ultra
|1920 × 1080 TAA
|RT Off
|RT High
|RT Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-18%
|-27%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-18%
|-27%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-17%
|-26%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-20%
|-31%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-57%
|-69%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-59%
|-71%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-53%
|-66%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-54%
|-68%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-53%
|-67%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-56%
|-69%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-58%
|-71%
|Metro Exodus, профиль Ultra
|2560 × 1440 TAA
|RT Off
|RT High
|RT Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-21%
|-31%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-23%
|-33%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-22%
|-33%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-27%
|-38%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-63%
|-74%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-65%
|-75%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-59%
|-72%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-60%
|-73%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-59%
|-72%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-62%
|-74%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-64%
|-76%
|Metro Exodus, профиль Ultra
|3840 × 2160 TAA
|RT Off
|RT High
|RT Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-29%
|-40%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-30%
|-43%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-28%
|-41%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-35%
|-47%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-69%
|-80%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-70%
|-80%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-66%
|-78%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-68%
|-79%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-66%
|-78%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-69%
|-80%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-70%
|-81%
Из трех игр, которые в настоящий момент используют трассировку лучей в реальном времени, Shadow of the Tomb Raider располагается в промежутке между Battlefield V и Metro Exodus по требованиям к быстродействию GPU. Графический движок выполняет Ray Tracing для рендеринга теней с тремя уровнями детализации: от среднего до ультравысокого. Самая щадящая опция (Medium) на видеокартах под маркой GeForce RTX 20 забирает от 13 до 18 % частоты смены кадров — в зависимости от разрешения экрана. Впрочем, настройка Medium в Shadow of the Tomb Raider активирует трассировку лучей только для редких точечных источников света и в большинстве игровых сцен не производит заметного эффекта. Промежуточный вариант качества теней (High) снижает быстродействие этих устройств на 37–44 %, а высший (Ultra) — на 39–48 %.
Ускорители семейства GeForce GTX 10 при среднем качестве эффектов DXR отделались снижением быстродействия в 16–24 % (единственным исключением оказался GeForce GTX 1060, который потерял уже 31 % FPS при разрешении 1440p и 2160p). Установка высокого качества трассированных теней приводит к тому, что частота смены кадров на «Паскалях» падает на 41–57 % даже при разрешении экрана ниже 4К, а в режиме 2160p потери увеличиваются до 61–68 %. И наконец, ради трассировки на уровне Ultra владельцу видеокарты серии GeForce GTX 10 придется пожертвовать 54–67 % FPS при условно низких разрешениях экрана и 67-74 % в 4К.
Перед новыми устройствами NVIDIA в средней ценовой категории — GeForce GTX 1660 и GTX 1660 Ti — Shadow of the Tomb Raider открыл возможность доказать преимущества архитектуры Turing перед чипами Pascal без помощи специализированных RT-ядер. Действительно, эти ускорители справляются с тестами в условиях гибридного рендеринга более эффективно, чем близкие по производительности модели GeForce 10-й серии. Так, потери быстродействия на GeForce GTX 1660 Ti при трех уровнях качества эффектов DXR равняются 16–21, 50–55 и 51–61 % — в зависимости от разрешения экрана. У GeForce 1070 эти показатели достигают 19–21, 53–68 и 58–72 %.
Пусть эффекты трассировки лучей на минимальном уровне качества не так сильно повышают запросы игры к быстродействию железа, как в Metro Exodus или даже в Battlefield V, активация DXR мгновенно снимает с дистанции все видеокарты прошлого поколения. Исключением стал только GeForce GTX 1080 Ti: бывший флагман смог пробить отметку 60 FPS при разрешении 1080p. В любом случае, даже GeForce GTX 1080 Ti в любых тестах с трассировкой лучей проигрывает младшей модели среди полноценных «Тьюрингов» — GeForce RTX 2060.
|Shadow of the Tomb Raider, макс. Качество
|1920 × 1080 SMAA 4x
|RT Off
|RT Medium
|RT High
|RT Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-14%
|-38%
|-40%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-14%
|-40%
|-42%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-13%
|-38%
|-40%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-14%
|-40%
|-43%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-16%
|-50%
|-51%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-16%
|-45%
|-50%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-16%
|-49%
|-54%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-18%
|-51%
|-56%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-18%
|-51%
|-55%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-19%
|-53%
|-58%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-19%
|-57%
|-63%
|Shadow of the Tomb Raider, макс. Качество
|2560 × 1440 SMAA 4x
|RT Off
|RT Medium
|RT High
|RT Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-14%
|-37%
|-39%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-15%
|-39%
|-41%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-15%
|-39%
|-41%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-17%
|-39%
|-43%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-19%
|-48%
|-53%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-18%
|-48%
|-53%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-18%
|-52%
|-57%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-19%
|-54%
|-60%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-18%
|-54%
|-60%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-19%
|-57%
|-63%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-31%
|-41%
|-67%
|Shadow of the Tomb Raider, макс. Качество
|3840 × 2160 AA Off
|RT Off
|RT Medium
|RT High
|RT Ultra
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-14%
|-37%
|-40%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-18%
|-40%
|-43%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-18%
|-40%
|-43%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-22%
|-44%
|-48%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-21%
|-55%
|-61%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-37%
|-59%
|-65%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-21%
|-61%
|-67%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-23%
|-64%
|-70%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-23%
|-63%
|-69%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-24%
|-66%
|-72%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-31%
|-68%
|-74%
С тех пор как на рынке появились первые видеокарты под флагом «RTX On», NVIDIA неустанно убеждала нас в том, что трассировка лучей в реальном времени невозможна на железе прошлого поколения с приемлемой частотой смены кадров. Есть ли повод чувствовать себя обманутым теперь, когда функции DXR открылись для множества моделей семейства GeForce GTX 10 и GeForce GTX 16? Определенно нет, ведь такой неожиданный шаг со стороны NVIDIA пойдет на пользу всем — геймерам, игроделам и производителям железа. За счет поддержки гибридного рендеринга в новом драйвере для «Паскалей» NVIDIA многократно увеличила базу оборудования, на возможности которой будут ориентироваться создатели грядущих игровых проектов. И мы не сомневаемся, что AMD рано или поздно тоже сделает свои продукты совместимыми с DXR. По крайней мере на это вполне способны модели Radeon RX Vega и Radeon VII.
Как бы то ни было, для обладателей мощных ускорителей NVIDIA прошлого поколения у нас уже есть хорошие новости: оказалось, что GeForce GTX 1080 Ti справляется с играми, которые используют трассировку лучей, почти не менее успешно, чем GeForce RTX 2060. На первый взгляд, сомнительное достижение, если учесть разницу между GTX 1080 Ti и RTX 2060 в цене и энергопотреблении. Но с другой стороны, ресурсов старого флагмана (да и GeForce GTX 1080, с рядом оговорок) вполне достаточно для того, чтобы играть в Battlefield V и Shadow of the Tomb Raider с умеренными настройками эффектов DXR (в Metro Exodus с трассировкой лучей «Паскалям» уже делать нечего). А вот остальные видеокарты, которые NVIDIA допустила к гибридному рендерингу наряду с семейством GeForce RTX 20, не оправдали подобной чести — особенно GeForce GTX 1060, который годится лишь для того, чтобы делать впечатляющие скриншоты. Конечно, можно увеличить быстродействие за счет снижения других параметров детализации, но в таком случае рендеринг теней и отражений с помощью трассировки лучей едва ли компенсирует общее падение качества изображения.
Кроме того, NVIDIA стремится стремится делать так, что поддержка DXR всегда сопровождается опцией DLSS (Deep Learning Super Sampling), которая повышает быстродействие за счет рендеринга в сниженном разрешении с последующим масштабированием кадра на тензорных ядрах (они, напомним, есть лишь в картах GeForce RTX). Четкость картинки, пропущенной через нейросеть, пока что сильно плавает в различных играх. Пускай мы видели откровенно провальные образцы использования этой технологии (такие, как в Battlefield V), есть и примеры высокого качества — Final Fantasy XV и Shadow of the Tomb Raider. Но даже без DLSS преимущество новой архитектуры в играх с трассировкой лучей неоспоримо, и появление таких возможностей у старых GPU лишь дополнительно его подчеркивает.
Что касается младших ускорителей на чипах Turing из серии GeForce GTX 16, то усовершенствованная организация шейдерных ALU, несмотря на отсутствие RT-ядер, и вправду позволяет графическому процессору TU116 легче справляться с трассировкой лучей по сравнению с ближайшими по быстродействию устройствами 10-го семейства (GeForce GTX 1070 и GTX 1070 Ti). Вот только разница заметна больше всего при высоком качестве эффектов DXR, когда никакие видеокарты, помимо GeForce RTX, уже явно не вытягивают игру с приемлемой частотой смены кадров. |
985,852 | Ноутбук со сдвижной клавиатурой, серия компьютеров для дизайнеров и другие новинки Acer | После закрытия подразделения смартфонов набор новинок на конференции next@Acer уже можно было, казалось бы, угадать заранее: несколько ноутбуков игровой серии Predator – попроще и помощнее, в том числе флагман, на который делается главная в году маркетинговая ставка; несколько «дорожных» ноутбуков, возможно, бьющих рекорды легкости и автономности; десктоп-другой и, вероятно, очки виртуальной реальности. Но тайваньская компания все-таки сумела удивить, пусть и не открыв новую для себя категорию, но представив абсолютно свежую серию устройств ConceptD.
ConceptD компания Acer называет «новым брендом высокопроизводительных настольных ПК, ноутбуков и мониторов премиум-класса», но все-таки полноценным суббрендом, в стиле Predator, его назвать нельзя – у него нет на сегодняшний день ни своего логотипа, ни уникального дизайн-кода. Речь скорее о наименовании серии в стиле Nitro, Swift или Spin. Тем не менее в серию ConceptD уже на старте входитбольшая группа устройств, которые объединяет очень серьезная мощность, лаконичный дизайн и (при условии его наличия) экран с максимально точной настройкой и разрешением 4К. Продукты под этим брендом ориентированы на профессиональных создателей контента – дизайнеров, художников, фотографов, монтажеров. Это техника привычной по Predator мощи, но с акцентом на важных именно для профессионалов функциях, а не для геймеров (хотя среди них тоже бывают профессионалы, конечно). Своеобразный «лаконичный Predator с 4К-экраном».
«Точка входа» в серию ConceptD на сегодняшний день – это ноутбук ConceptD 5. Внешне он, равно как и модель, занимающая среднюю позицию в табели Acer, ConceptD 7, больше напоминает «Хромбуки», нежели устройства премиального класса. Матовые поверхности, никакого полированного алюминия или многочисленных светящихся элементов. Но на ощупь и «пятерку», и «семерку» легко отличить от бюджетных лэптопов – корпус выполнен из магниево-алюминиевого сплава с вкраплениями магниево-литиевого. Клавиатура, естественно, сделана из пластика, причем матового, приятного на ощупь и абсолютно не маркого. Последнее относится ко всему корпусу в целом.
Весит Acer ConceptD 5 всего 1,5 кг, а его толщина составляет 16,9 мм – при этом на месте и обширный набор портов: USB Type-C Gen 1 с поддержкой Display Port, три полноразмерных USB, полноразмерный же HDMI, разъемы для наушников и карты памяти. Заряжать ноутбук можно как при помощи специального разъема, так и через USB Type-C. Несмотря на относительную компактность, ноутбук получил дискретную графику серии Radeon RX Vega M GL, процессор Intel Core i7 седьмого поколения, SSD до 1 Тбайт объемом и до 16 Гбайт оперативной памяти.
Фишка всех ноутбуков серии ConceptD – дисплеи. В «пятерке» установлен 13-дюймовый IPS, сертифицированный что Adobe, что ассоциацией Pantone (ждем от них вскоре большого количество сертификатов и для смартфонов тоже – золотая жила, в принципе) и с точностью цветопередачи Delta E <2.
Примерно те же характеристики и у дисплея ConceptD 7, с поправкой на то, что он тут побольше – 15,6 дюйма, как и сам ноутбук (2,1 кг, 17,9 мм толщины). Intel Core i7 тут уже девятого поколения, а графика – NVIDIA GeForce RTX 2080 Max-Q. Еще одно отличие от «пятерки» — наличие полноразмерного разъема RJ-45.
Топ-модель в этой серии ноутбуков – ConceptD 9. Она выполнена в корпусе черного цвета и отличается экраном на шарнирах, позволяющих поворачивать его на 180 градусов, – система хорошо знакома по модели Acer Aspire R13, к примеру. Экран используется большой диагонали — 17,3 дюйма — с 100%-м цветовым охватом Adobe RGB и точностью цветопередачи Delta E <1. Дисплей снабжен сенсорной поверхностью, а на корпусе с помощью магнита крепится стилус Wacom EMR с наконечником, обеспечивающим 4096 уровней чувствительности к нажатию.
Аппаратная начинка ConceptD 9 соответствует его амбициям как идеальной Windows-машины для дизайнера или художника: Intel Core i9 девятого поколения, NVIDIA GeForce RTX 2080, до 32 Гб памяти DDR4 с тактовой частотой 2666 МГц и два SSD-накопителя объемом 512 Гб с интерфейсом M.2 PCIe NVMe в массиве RAID 0. Немного неказистый на вид ноутбук демонстрирует весьма впечатляющие возможности.
Еще одна отличительная фишка всех ноутбуков серии ConceptD – очень низкий уровень шума при работе, Acer обещает, что даже на пределе они не будут издавать звук громче 40 дБ.
Подобной бесшумности для десктопа ConceptD 900 компания не гарантирует, делая акцент уже просто на качественном охлаждении. ConceptD 900 – это флагманский ПК с характеристиками, наводящими на мысль о конкуренции с Mac Pro. Да, пожалуй, даже не конкуренции, а превосходстве. Два процессора Intel Xeon Gold 6148 (до 40 ядер и 80 потоков), графическая система NVIDIA Quadro RTX 6000, 12 слотов для памяти ECC общим объемом до 192 Гб, два встроенных слота M.2 PCIe и до пяти накопителей с поддержкой RAID 0/1. ConceptD 500 поизящнее и попроще: в корпус белого цвета с деревянными вставками установлен процессор Intel Core i9-9900K девятого поколения с 8 ядрами, 16 потоками и тактовой частотой до 5 ГГц и графический процессор NVIDIA Quadro RTX 4000 (в максимальной комплектации), что позволяет, тем не менее, рассчитывать на поддержку четырех дисплеев разрешением 5К. Для этого ПК как раз заявлен «ноутбучный» уровень шума – менее 40 дБ.
Отдельной строкой отметим встроенную в верхнюю часть корпуса беспроводную зарядку для гаджетов – десктоп модный по всем статьям, в том числе и по цене: ConceptD 500 появится в продаже в странах Европы в июле по цене от 2 799 евро, стоимость в России будет объявлена дополнительно. ConceptD 900 появится раньше, в июне, и будет стоить в Европе от 17 999 евро – вполне ожидаемая планка.
Ноутбуки ConceptD стоят поменьше, но все равно не относятся к разряду бюджетных устройств: ConceptD 9 будет доступен в России с августа по цене от 359 990 рублей, ConceptD 7 – в июле по цене от 149 990 рублей, ConceptD 5 – тоже в июле по цене от 119 990 рублей. Помимо десктопов и ноутбуков Acer в рамках суббренда ConceptD представила также несколько мониторов и две системы виртуальной реальности, совместимые с продуктами как Autodesk, так и Dassault Systemes.
Премьера нового суббренда, вероятно, стала главным событием конференции, но на ней дело, конечно, не закончилось. Не меньший интерес вызывают — и это, пожалуй, традиционно — игровые новинки.
Два обновленных Nitro (5 и 7) выглядят очень симпатично и кажутся не только весьма неплохим вариантом в качестве почти стационарного устройства, как обычно бывает с игровыми ноутбуками, но и хорошо приспособлены к транспортировке: толщина 19,9 и 23,9 мм у Nitro 7 и Nitro 5 соответственно. Дисплеи размером 17,3 и 15,6 дюйма имеют небольшие рамки. Начинка тоже вполне современная: Intel Core девятого поколения, дискретные карты NVIDIA, хороший набор полноразмерных портов, фирменные Nitro-фишки вроде оптимизации сетевой карты и гибкого управления горячими клавишами. При цене от 59 990 рублей (Nitro 5) и от 69 990 рублей (Nitro 7) обе модели выглядят потенциальными хитами.
Acer Predator Helios 700 хитом определенно не будет, но это как раз та вещь, которая создана не столько для массовых продаж, сколько для демонстрации возможностей подразделения. Этакий шоу-стоппер, обязательная остановка для всех изданий, даже пишущих о ноутбуках нерегулярно. Может, успеха Predator 21 он в этом плане и не повторит, но свою минуту славы определенно ухватит.
Главная фишка Predator Helios 700 — клавиатура Hyper Drift, которая выдвигается вперед, чтобы обеспечить приток воздуха в корпус. Кто-то ради этого создает ноутбуки с удлиненными рабочими поверхностями, кто-то переносит тачпад наверх или вбок, чтобы выкроить лишний сантиметр пространства, а Acer решила проблему с помощью фантазии и шарниров.
Работать ноутбук вполне может и в сложенном состоянии, выдвигать клавиатуру нужно только в самых горячих игровых сессиях и при активации разгона видеокарты (да, здесь есть такая возможность). В таком режиме система охлаждения наиболее эффективна. Она состоит из двух вентиляторов AeroBlade 3D четвертого поколения, пяти медных тепловых трубок и испарительной камеры. Все это работает под управлением утилиты Acer CoolBoost. Выдвинув клавиатуру вперед, пользователь открывает два дополнительных воздухозаборника под экраном и над клавиатурой. Сразу скажу, что удобство при использовании клавиатуры в выдвинутом состоянии не страдает – она крепится очень надежно, не дребезжит и не прогибается.
Сама клавиатура тоже интересна: индивидуальная RGB-подсветка для каждой клавиши, поддержка функции anti-ghosting и система WASD MagForce — в четырех главных для любого геймера клавишах применяются линейные переключатели, которые обеспечивают моментальное срабатывание. Тачпад тоже снабжен подсветкой – по периметру.
Еще один момент, с ходу бросающийся в глаза, – огромная толщина Helios 700. Цифру Acer пока не называет, но обратите внимание, как в ней теряются полноразмерные USB и RJ-45. Само собой, Helios 700 – стационарное устройство, транспортировка которого возможна разве что с турнира на турнир.
Начинка у Predator Helios 700 вполне ожидаемая: процессор Intel Core i9 с уже упомянутой возможностью разгона, видеокарта NVIDIA GeForce RTX 2080 или 2070, до 64 Гбайт оперативной памяти DDR4 и сетевой адаптер Killer DoubleShot Pro с модулями Killer Wi-Fi 6AX 1650 и E3000, который способен в четыре раза (по сравнению с предыдущим поколением сетевых карт) увеличить пропускную способность. Дисплей – 17-дюймовый IPS с поддержкой разрешения Full HD, частотой обновления 144 Гц, временем отклика 3 мс и поддержкой технологии NVIDIA G-SYNC. Звуковая подсистема предполагает наличие пяти динамиков и сабвуфера.
Куда более приземленно (и потенциально куда более интересно для покупки) выглядит Predator Helios 300. Это относительно компактный для игровой модели топ-уровня ноутбук с графикой NVIDIA GeForce RTX 2070 Max-Q или GeForce GTX, процессором вплоть до Intel Core i7 девятого поколения, сетевым адаптером Killer DoubleShot Pro, максимум 32 гигабайтами оперативной памяти с частотой 2666 МГц, двумя твердотельными накопителями PCIe NVMe в RAID 0 и обычными жесткими дисками. Дисплей – IPS с частотой 144 Гц и Full HD-разрешением диагональю 15,6 или 17,3 дюйма.
Конструктивно это вполне обычный ноутбук, но с интересной подсветкой клавиатуры и тачпада на манер Helios 700. И с системой охлаждения, включающей два вентилятора AeroBlade 3D четвертого поколения с лопастями толщиной 0,1 мм и зазубренной кромкой, которые одновременно обеспечивают и усиленный воздушный поток, и малошумную работу. Клавиатура в Helios 300, конечно, не двигается и не снабжена клавишами MagForce – WASD только выделены цветом.
Acer Predator Helios 700 появится в России в июле со стоимостью от 199 990 рублей, Helios 300 – в июне по цене от 89 990 рублей.
На мой же субъективный взгляд, самая интересная новинка – Acer TravelMate P6, ноутбук, который объединяет в себе сразу множество благ для путешествующих людей.
Толщина – 16,6 мм, что одновременно и немного, и позволяет разместить на корпусе основные необходимые порты: USB Type-C с поддержкой Intel Thunderbolt 3, два USB Type-A, полноразмерные RJ-45 и HDMI. Не хватает разве что слота для SD-карт – вместо него тут разъем для microSD. Зато есть NFC и теоретическая возможность выходить в сеть через LTE. Теоретическая – потому что слот для симки отсутствует, вместо него только eSIM. А с этим в России, как вы понимаете, туго. При желании можно купить опциональную док-станцию, которая еще расширит возможности подключения устройства.
Корпус выполнен из алюминиево-магниевого сплава и соответствует параметрам MIL-STD 810G2 и 810F – то есть способен вполне стойко выдерживать физические воздействия. И выглядит, и ощущается, на мой взгляд, TravelMate P6 даже лучше, чем ноутбуки серии ConceptD, хотя это, конечно, чистая вкусовщина. Весит TravelMate P6 1,1 кг.
Ноутбук оснащен 14-дюймовым Full HD-дисплеем с матрицей IPS, крышка откидывается на 180 градусов. Аппаратная начинка в порядке, хотя и не заслуживает приставки «топ»: процессор Intel Core i7 восьмого поколения, память DDR4 объемом до 24 Гбайт, графика NVIDIA GeForce MX250 и твердотельный накопитель PCIe Gen 3 x4 NVMe емкостью до 1 Тбайт. Самый смак – это, конечно, автономность. Производитель заявляет до 20 часов в базовом режиме (браузер, тексты, таблицы) при том, что для подзарядки до 50% достаточно 45 минут.
В России Acer TravelMate P6 появится в июне, местная цена пока не называется. В США он будет стоить от 1 150 долларов. В принципе, очень неплохо для такого набора опций.
Этим набором новинок Acer, понятное дело, не ограничилась, выкатив и обновленные Aspire, и свежие «хромбуки», и набор мониторов, и игровой десктоп… Обо всем в одной статье не расскажешь, предлагаю пройти по ссылкам, мы уже выпустили новости по всем этим продуктам. |
985,868 | Обзор и оценка производительности Microsoft Edge на базе Chromium: новый поворот | О том, что дела у софтверного гиганта в сегменте браузеров идут ни шатко ни валко, можно судить по статистическим данным Net Applications, свидетельствующим о безоговорочном лидерстве Google Chrome на рынке браузеров как для десктопов — с внушительной долей в 65,5 %, так и для мобильных устройств (63,1 %). Это в былые времена Microsoft играла мускулами и упивалась собственным могуществом на рынке интернет-обозревателей, а сейчас, в новых реалиях, раритетный Internet Explorer и пришедший ему на смену Edge суммарно используются лишь на 14,2 % компьютеров с подключением к глобальной сети. Подчёркиваем: речь идёт именно о ПК, поскольку мобильная сфера так и осталась недосягаемой для редмондских гуру кодинга. Неудивительно, что в Microsoft решили пересмотреть устоявшиеся стереотипы и задумались о привлечении пользовательской аудитории на свою сторону. Главным шагом в этом направлении стало анонсированное в конце 2018 года решение прекратить развитие собственного браузерного движка EdgeHTML и сменить его на Chromium — тот самый, который положен в основу Chrome (а также Opera, Vivaldi и многих других альтернативных веб-обозревателей).
Радикальная смена курса и крен в сторону открытого проекта Chromium стали довольно неожиданными для веб-индустрии и вызвали неоднозначную реакцию со стороны крупных игроков рынка. В Google и среде Open Source поприветствовали такой смелый шаг со стороны именитой корпорации и объявили о сотрудничестве с Microsoft, также выразившей готовность участвовать в развитии Chromium. А вот в Mozilla отреагировали иначе. В компании заявили, что не поощряют проект нового Edge и что Microsoft своим решением отдаёт Google ещё больше контроля над Интернетом. «Готовность Microsoft отказаться от развития собственного движка EdgeHTML приводит к серьёзному перекосу конкурентной среды и предоставляет Google больше возможностей в одиночку решать, какие возможности и функции будут доступны пользователям Сети», — прокомментировали свою позицию в Mozilla. В самой Microsoft, напротив, не видят в этом ничего плохого и убеждены, что переход на программную основу Chromium позволит улучшить совместимость браузера с современными стандартами и не только существенно упростит жизнь веб-разработчикам, но и ускорит разработку продукта за счёт подключения к делу специалистов Open Source-сообщества.
Как бы то ни было, проект нового Microsoft Edge на базе Chromium стартовал и уже доступен для изучения на сайте microsoftedgeinsider.com в виде предварительных англоязычных сборок веб-обозревателя для операционной системы Windows 10. В настоящий момент разработчик предлагает два варианта превью-версии браузера — Dev и Canary. Первый обновляется раз в неделю, второй — c ежедневной периодичностью: он рассчитан на тех, кто стремится быть максимально вовлечённым в процесс разработки продукта. Бета-версия появится позднее и будет обновляться каждые 6 недель. Также в скором времени увидят свет версии «хромированного» Edge для Windows 7/8/8.1 и macOS.
В текущем варианте (для справки: мы использовали Dev-сборку браузера как наиболее стабильную) рабочее окружение Edge представляет собой практически точную копию известного всем Google Chrome, в котором лишь некоторые элементы интерфейса претерпели изменения. Дизайнеры Microsoft не стали изобретать велосипед и сохранили общую стилистику «Хрома», свойственную всем современным браузерам. Значительные правки внесены только в оформление окна настроек программы и стартовой страницы, которую пользователь видит всякий раз при открытии новых вкладок. Окно настроек стало более «собранным», а стартовая страница получила элементы быстрого доступа к поисковой системе Bing и сервисам информационного портала MSN, а также поддержку ежедневно обновляемых фоновых изображений. При желании от последних можно отказаться, также предусмотрена возможность отключения блока «быстрых» ссылок на часто посещаемые сайты и скрытия новостной ленты MSN.
По функциональной начинке обновлённый Edge тоже во многом схож с «Хромом», но это только на начальном этапе разработки браузера. Перенося свой продукт на кодовую основу Chromium, программисты Microsoft планируют исключить из исходников открытого проекта свыше полусотни компонентов и модулей, в той или иной мере использующих сервисы Google. Среди них средства авторизации в Google-аккаунте и синхронизации пользовательских данных, механизмы геолокации, проверки орфографии и заполнения веб-форм, Google Pay, Cloud Print, Google Cloud Messaging и многие другие службы, значительную часть которых компания намерена заменить аналогичными сервисами собственной разработки. В стремлении вписать Edge на базе Chromium в экосистему онлайновых служб Microsoft такая «зачистка» сервисов Google выглядит вполне логичным решением.
Процесс замены одних компонентов другими нельзя отнести к разряду быстрых, поэтому включение в новый Edge сервисов и программных модулей Microsoft будет производиться поэтапно. В браузере уже реализована система авторизации через учётную запись Microsoft c синхронизацией пользовательских данных, защита от фишинговых и других вредоносных сайтов под названием SmartScreen, функционирующая в связке с Windows Defender, а также собственный магазин расширений. Пускать под нож поддержку расширений Chrome Web Store редмондцы не стали и сохранили её в полном объёме: достаточно в настройках Edge разрешить установку дополнений из сторонних источников — и можно смело пользоваться любыми приложениями для «Хрома». За это разработчикам из Microsoft большой почёт и уважение!
Не стали в Microsoft мудрить и с настройками используемых по умолчанию поисковых систем. При установке Edge автоматом цепляется к Bing (кто бы сомневался), но при желании можно подключить к браузеру любой другой поисковик. Проделывается эта операция в конфигурационном меню «Privacy and services → Address bar → Manage search engines».
В Microsoft открыто признают, что представленная широкой общественности предварительная версия нового браузера пока лишена многих привычных пользователям классического Edge функций и большей степени служит демонстрацией того, в каком направлении будет развиваться продукт. В этом плане интересно наличие в экспериментальных настройках (чтобы получить к ним доступ, нужно ввести в адресной строке edge://flags и нажать Enter) упоминаний про Linux-версию веб-обозревателя. По всей видимости, упомянутые настройки перекочевали из репозитория Chromium без изменений, но нельзя исключать и вероятность того, что в перспективе будет выпущена Linux-сборка майкрософтовского браузера. А там, глядишь, и мобильные версии подтянутся. Полагаем, это вопрос времени.
Будучи построенным на кодовой базе Chromium, новый Microsoft Edge использует тот же движок рендеринга Blink, что и Chrome, и прочая родственная братия. Это означает, что по скоростным характеристикам новичок должен быть сопоставимым с построенными на этой технологической платформе браузерами.
Для проверки этого предположения мы воспользовались загрузочным флеш-накопителем Windows To Go с 64-битной сборкой Windows 10 и оценили производительность программного решения на ноутбуке Acer Aspire 5742G (процессор Intel Core i3-370M с тактовой частотой до 2,4 ГГц, 8 Гбайт оперативной памяти, видеокарта NVIDIA GeForce GT 540M). Для оценки производительности использовались бенчмарки Octane 2.0, MotionMark 1.1, JetStream 2, Basemark и Speedometer 2.0, измеряющие скорость обработки графики, веб-контента и рендеринга страниц, быстродействие интерпретатора JavaScript и время выполнения типичных для большей части интернет-пользователей задач. Для проведения сравнительных тестов, помимо нового Microsoft Edge, были использованы классический Edge, Internet Explorer 11, Firefox и построенные на базе Chromium обозреватели Chrome, Opera и «Яндекс.Браузер» последних на момент подготовки материала версий. Для чистоты эксперимента все программы тестировались по отдельности, остальные запущенные в системе приложения при выполнении бенчмарков выгружались из памяти компьютера. О результатах проведённого нами тестирования можно судить по приведённым ниже графикам.
Как и следовало ожидать, все построенные на основе Chromium продукты — Chrome, Opera, «Яндекс.Браузер», новый Edge — в сравнительных тестах показали практически идентичные результаты и засветились в четвёрке безоговорочных лидеров. Хуже всего в тестовых дисциплинах выступили классический Edge и проваливший практически все тесты древний Internet Explorer 11. Более-менее достойные, но далеко не выдающиеся результаты продемонстрировал Firefox, оснащённый браузерным движком нового поколения Quantum. Единственный прокол у нового Edge вышел при проверке на предмет поддержки современных веб-стандартов: в тесте HTML5test.com этот обозреватель набрал только 481 балл из 555 возможных (для сравнения: Google Chrome, «Яндекс.Браузер» и Opera проходят данный тест с результатом 509 очков). Но сильно расстраиваться по этому поводу не стоит, так как продукт находится в самом начале пути своего развития, и есть все основания полагать, что к моменту релиза программисты Microsoft доведут Edge до ума и реализуют в браузере полноценную поддержку HTML5.
Можно долго и увлечённо спорить о правильности выбранной Microsoft стратегии при создании новой версии браузера, конкуренции на рынке и отказе от развития собственного движка EdgeHTML.
На наш взгляд, поворот корпорации в сторону сообщества Open Source является стратегически верным шагом, и выбор в пользу открытого проекта Chromium в перспективе позволит Edge завоевать расположение избалованной сетевой аудитории и продемонстрировать положительные темпы роста на рынке интернет-обозревателей. Вряд ли от нового браузера стоит ожидать каких-либо революционных перемен, но свою роль в повышении лояльности пользователей и веб-разработчиков к продукции Microsoft он определённо сыграет. А это огромный плюс для компании и её бизнеса на рынке программного обеспечения. |
985,869 | Обзор ASUS ROG Zephyrus S (GX701GX): игровой ноутбук с GeForce RTX 2080 на «диете» | В 2017 году на нашем сайте вышел обзор ноутбука ASUS ROG ZEPHYRUS (GX501) — это была одна из первых моделей, оснащенных графикой NVIDIA в дизайне Max-Q. Ноутбук получил графический процессор GeForce GTX 1080 и 4-ядерный чип Core i7-7700HQ, но при этом оказался тоньше двух сантиметров. Тогда я назвал появление таких мобильных компьютеров долгожданной эволюцией, ведь у NVIDIA и ее партнеров получилось создать мощный, но не громоздкий игровой лэптоп.
Модель ASUS ROG Zephyrus S (GX701GX), о которой пойдет речь далее, продолжает славные традиции GX501. Только теперь в ноутбуке толщиной 19 мм установлены 6-ядерный центральный процессор и графика GeForce RTX 2080 Max-Q. Посмотрим, как эта новинка проявит себя в современных играх.
⇡#Технические характеристики, комплектация и ПО
В продаже вы встретите три модификации ROG Zephyrus S: в версии GX701GX используется GeForce RTX 2080 в Max-Q-дизайне, в GX701GW — GeForce RTX 2070, в GX701GV — GeForce RTX 2060. В остальном эти модели очень похожи друг на друга. В частности, везде используется 6-ядерный процессор Core i7-8750H и 17,3-дюймовая матрица, поддерживающая технологию NVIDIA G-SYNC. Основные характеристики обновленного ROG Zephyrus S приведены в таблице ниже.
|
ASUS ROG Zephyrus S
|
Дисплей |17,3'', 1920 × 1080, IPS, матовый
|
Центральный процессор |Intel Core i7-8750H, 6/12 ядер/потоков, 2,2 (4,1) ГГц, 45 Вт
|
Видеокарта |GeForce RTX 2080 Max-Q, 8 Гбайт
GeForce RTX 2070, 8 Гбайт
GeForce RTX 2060, 6 Гбайт
|
Оперативная память |До 24 Гбайт, DDR4-2666, 2 канала
|
Установка накопителей |M.2 в режиме PCI Express x4 3.0, 512 Гбайт или 1 Тбайт
|
Оптический привод |Нет
|
Интерфейсы |2 × USB 3.1 Gen1 Type-A
1 × USB 3.1 Gen1 Type-C
1 × USB 3.1 Gen2 Type-C
1 × USB 3.1 Gen2 Type-A
1 × 3,5-мм мини-джек
1 × HDMI
|
Встроенный аккумулятор |76 Вт⋅ч
|
Внешний блок питания |230 Вт
|
Размеры |399 × 272 × 18,7 мм
|
Масса ноутбука |2,7 кг
|
Операционная система |Windows 10
|
Гарантия |2 года
|
Цена в России по данным «Яндекс.Маркета» |От 170 000 руб.
К нам в редакцию приехала самая навороченная версия — GX701GX: в дополнение к RTX 2080, такой ноутбук укомплектован 24 Гбайт оперативной памяти DDR4-2666 и терабайтным SSD. К сожалению, в продаже эту модификацию «Зефира» я не нашел. Версия с 16 Гбайт ОЗУ и 512 Гбайт SSD в московской рознице в среднем стоит 240 000 рублей. Еще в обзоре ASUS ROG Strix SCAR II (GL704GW) я предупредил читателей, что по доступным деньгам ноутбуки с RTX-графикой найти не получится.
Все лэптопы серии ROG оснащены беспроводным модулем Intel Wireless-AC 9560, который поддерживает стандарты IEEE 802.11b/g/n/ac с частотой 2,4 и 5 ГГц и максимальной пропускной способностью до 1,73 Гбит/с, а также Bluetooth 5.
В комплекте с ASUS ROG Zephyrus S (GX701GX) шел внешний блок питания мощностью 230 Вт и массой порядка 600 г.
Как всегда, вместе с операционной системой Windows 10 на ноутбуке предустановлено множество фирменных утилит ASUS ROG, которые активируются при помощи одноименной кнопки — она расположена над клавиатурой.
Ноутбуки серии ROG с процессорами Core 8-го поколения включены в сервисную программу Premium Pick Up and Return сроком на 2 года. Это значит, что при возникновении неполадок владельцам новых лэптопов не придется ехать в сервисный центр — ноутбук бесплатно заберут, отремонтируют и вернут в кратчайшие сроки.
⇡#Внешний вид и устройства ввода
ASUS ROG Zephyrus S (GX701GX) обладает узнаваемым внешним видом — это строгие, прямые, очерченные линии, а сам корпус выполнен из шлифованного алюминия.
Как я уже отметил, толщина ROG Zephyrus S составляет всего 19 мм, однако сам ноутбук стал несколько больше, если сравнивать его с моделью предыдущего поколения. Во-первых, в GX701GX используется 17-дюймовая IPS-матрица. Правда, за счет тонких рамок сверху и по бокам (всего 6,9 мм) новый «Зефир» оказывается шире GX501 всего на 20 мм — и на 10 мм длиннее. В целом я согласен с утверждением, что ROG Zephyrus S — это 17-дюймовый лэптоп, собранный в 15-дюймовом форм-факторе.
При этом ROG Zephyrus S (GX701GX) стал тяжелее и весит 2,7 кг без учета внешнего блока питания. Впрочем, в основном устройство будет выступать заменителем настольного ПК, который тем не менее при желании всегда можно взять с собой. То есть вес не должен стать существенной проблемой.
Крышка ROG Zephyrus S раскрывается примерно на 130 градусов. Петли у ноутбука тугие, они четко фиксируют экран и не дают ему болтаться во время игр или набора текста. Отмечу интересную конструктивную особенность лэптопа: при поднятии крышки одновременно приподнимается и основная часть лэптопа. В результате по бокам ноутбука образуются щели, при помощи которых вентиляторы системы охлаждения дополнительно засасывают воздух. Уже нагретый воздух покидает пределы корпуса через решетки на задней стенке ноутбука.
При этом под небольшим углом приподнимается и клавиатура, так что печатать становится чуточку удобней. Не обошлось и без некоторого количества украшательств — вентиляционные щели ROG Zephyrus S оснащены подсветкой.
Спереди у «Зефира» никаких интерфейсов не предусмотрено. Сзади расположены решетки для выдува нагретого воздуха и три индикатора активности.
По понятным причинам 701-я модель не имеет крупногабаритных портов, таких как RJ-45. На левой стороне выведены коннектор для подключения блока питания, HDMI-выход, два USB 3.1 Gen2 (А- и C-типов, последний совмещен с mini-DisplayPort) и комбинированный 3,5-мм мини-джек для гарнитуры. На правой стороне у ноутбука расположены еще два USB 3.1 Gen1 А-типа, USB 3.1 Gen1 C-типа и слот для замка «Кенсингтон». К разводке и количественному составу портов вопросов почти нет — для полного счастья ROG Zephyrus S, пожалуй, не хватает только картридера.
Клавиатура у ROG Zephyrus S необычная, хотя точно такая же использовалась в 501-й модели. Это конструкторский ход, потому что матовая пластиковая область над клавиатурой тоже является частью системы охлаждения. Если присмотреться, то на ней можно увидеть перфорацию.
Из-за особенностей клавиатуры к работе с «Зефиром» придется некоторое время привыкать. Ход клавиш — небольшой. В конструкции используется ножничный механизм. Удобнее располагать ноутбук подальше от себя, потому что клавиатура находится ближе к пользователю. Еще удобнее подложить что-нибудь под запястье. Тачпад расположен справа, а не в центре. Я левша, и мне пришлось пару дней приспосабливаться к этой конструкторской находке инженеров ASUS. С другой стороны, геймер наверняка будет почти все время пользоваться компьютерной мышью, и тогда тачпад не будет мешаться под руками.
В остальном проблем с работой ROG Zephyrus S у меня не возникло. Слева сверху есть аналоговое колесо, при помощи которого регулируется уровень громкости. Справа расположилась кнопка с логотипом Republic of Gamers, по нажатии которой открывается приложение Armoury Crate — сменщик программы Gaming Center. Отмечу, что каждая клавиша обладает индивидуальной RGB-подсветкой с тремя уровнями яркости.
И да, инженеры и маркетологи ASUS, спасибо, что вернули кнопку Print Screen, ее очень не хватало в GX501!
Вернемся к тачпаду. Кажется, что он тут есть только потому, что должен быть в ноутбуке. Он небольшой, но с поддержкой мультитач-жестов Windows и рукописного ввода, как это сейчас принято. Кнопки нажимаются очень легко, но есть небольшой люфт. А еще тачпад оснащен цифровым блоком — в ASUS его называют виртуальным, так как он активируется нажатием специальной клавиши.
Наконец-то… Нет, не так. НАКОНЕЦ-ТО хоть кто-то из производителей игровых ноутбуков додумался избавиться от никчемной веб-камеры! Стыдно видеть в лэптопе стоимостью более 100, а то и более 200 тысяч рублей матрицу с разрешением 720p и частотой 30 Гц. Стриминг сейчас очень популярен среди ПК-игроков, поэтому в комплекте с ROG Zephyrus S идет отличная внешняя «вебка», поддерживающая разрешение Full HD с частотой вертикальной развертки в 60 Гц. Качество ее изображения оказывается на голову выше того, что предлагается в других игровых ноутбуках. Встроенной веб-камеры у лэптопа нет.
⇡#Внутреннее устройство и возможности апгрейда
Добраться до комплектующих лэптопа оказывается довольно проблематично. Для того чтобы заменить, например, твердотельный накопитель, необходимо открутить несколько Torx-винтов на днище и снять клавиатуру.
При этом ROG Zephyrus S имеет съемную панель на днище. Ее можно — и нужно — демонтировать только с одной целью: чтобы со временем почистить вентиляторы.
В системе охлаждения, кстати, используются две 12-вольтовые вертушки. Технология AeroAccelerator обеспечивает эффективное прохождение воздушных потоков через тонкий корпус ноутбука. Специальные алюминиевые кожухи на вентиляционных отверстиях, по заявлениям производителя, помогают вентиляторам втягивать внутрь больше холодного воздуха. Лопасти вентиляторов изготавливаются из жидкокристаллического полимера, что позволяет, по данным ASUS, уменьшить их толщину на 33 % по сравнению с традиционными. В результате каждый вентилятор получил по 83 лопасти — их воздушный поток увеличился на 15 %.
Для отвода тепла от GPU и CPU используется пять тепловых трубок и четыре радиатора, расположенные по бокам корпуса. Каждый такой радиатор состоит из медных ребер толщиной всего 0,1 мм. Теперь их стало 250.
Восемь гигабайт оперативной памяти уже распаяно на материнской плате ноутбука. В продаже вы встретите версии с 16 Гбайт ОЗУ — это значит, что в единственный слот SO-DIMM дополнительно установлена 8-гигабайтная плата DDR4-2666. В нашем же случае «Зефир» хвастает 24 Гбайт оперативной памяти.
Что касается запоминающего устройства, то в материнскую плату установлен M.2-накопитель Samsung MZVLB1T0HALR объемом 1 Тбайт. В общем, разбирать и модернизировать такую версию ROG Zephyrus S нет никакой необходимости.
Поскольку в лэптопе установлено одно из самых производительных графических решений, то есть смысл использовать исключительно максимальные или близкие к ним настройки качества графики.
|
API |
Качество |
Полноэкранное сглаживание
|
1920 × 1080
|
«Ведьмак-3: Дикая охота», Новиград и окрестности |DirectX 11
|Макс. качество
|AA
|
GTA V, встроенный бенчмарк |Макс. качество
|4 × MSAA + FXAA
|
FarCry 5, встроенный бенчмарк |Макс. качество, HD-текстуры выкл.
|TAA
|
Assassin's Creed Odyssey, встроенный бенчмарк |Самое высокое
|Высокое
|
Dota 2, запись матча |Макс. качество
|Без сглаживания
|
World of Tanks 1.0, EnCore бенчмарк |Макс. качество
|TSSAA HQ
|
Battlefield V, миссия «Последний тигр» |DirectX 12
|Ультра
|TAA
|
Shadow of the Tomb Raider, встроенный бенчмарк |Макс. качество
|SMAAT2x
|
Metro Exodus, Волга |Экстрим, NVIDIA HairWorks вкл., Physics выкл.
|
Deus Ex: Mankind Divided, комплекс «Утулек» |Максимальное качество
|MSSA × 2
Производительность в играх определялась при помощи хорошо известной программы FRAPS. С ее помощью мы получаем время рендеринга каждого кадра. Затем при помощи утилиты FRAFS Bench Viewer рассчитывается не только средний FPS, но и 99-й процентиль. Использование 99-го процентиля вместо показателей минимального количества кадров в секунду обусловлено стремлением очистить результаты от случайных всплесков производительности, которые были спровоцированы не связанными напрямую с работой основных компонентов платформы причинами.
Измерение производительности процессора и памяти было проведено при помощи следующего ПО:
Тестирование дисплея производится при помощи колориметра X-Rite i1Display Pro и приложения HCFR.
Время работы ноутбука от аккумулятора проверяется в трех режимах. Первый вариант нагрузки — веб-серфинг — подразумевает поочередное открытие и закрытие вкладок сайтов 3DNews.ru, Computeruniverse.ru и Unsplash.com с интервалом 30 секунд. Для этого теста используется браузер Google Chrome с включенными опциями «Блокировать данные и файлы cookie сторонних сайтов» и «Не разрешать сайтам сохранять данные». Во втором режиме воспроизводится видео формата x265 (HEVC) в стандартном плеере Windows 10 с активированной функцией повтора. Третий тип нагрузки — это запуск бенчмарка Unigine Heaven на максимальных настройках качества графики в полноэкранном режиме. Во всех трех случаях выставлялась одинаковая яркость дисплея в 200 кд/м
2.
В играх и других приложениях рассмотрены результаты следующих ноутбуков:
|
Участники тестирования
|
Модель |
Экран |
Процессор |
Оперативная память |
Графика |
Накопитель |
Батарея
|
ASUS ROG Strix SCAR II (GL704GM) |17,3'', 1920 × 1080, IPS
|Intel Core i7-8750H, 6/12 ядер/потоков, 2,2 (4,1) ГГц, 45 Вт
|32 Гбайт, DDR4-2666, два канала
|NVIDIA GeForce RTX 2070, 8 Гбайт GDDR6
|SSHD, 1 Тбайт, 5400 об/мин + SSD, 256 Гбайт, PCI Express x4 3.0
|Нет данных
|
ASUS ROG Zephyrus S (GX701GX) |17,3'', 1920 × 1080, IPS
|Intel Core i7-8750H, 6/12 ядер/потоков, 2,2 (4,1) ГГц, 45 Вт
|24 Гбайт, DDR4-2666, два канала
|NVIDIA GeForce RTX 2080 Max-Q, 8 Гбайт GDDR6
|SSD, 1 Тбайт, PCI Express x4 3.0
|76 Вт⋅ч
|
ASUS ROG ZEPHYRUS (GX501) |15,6'', 1920 × 1080, IPS
|Intel Core i7-7700HQ, 4/8 ядра/потоков, 2,8 (3,8) ГГц, 45 Вт
|16 Гбайт, DDR4-2400, два канала
|NVIDIA GeForce GTX 1080 Q-Max, 8 Гбайт GDDR5X
|SSD, 512 Гбайт, PCI Express x4 3.0
|50 Вт⋅ч
Во всех 17-дюймовых моделях ROG Zephyrus S используется IPS-матрица AUO AUO409D с матовым покрытием. Главными особенностями дисплея являются частота развертки 144 Гц и время отклика 3 мс. Точно такая же матрица устанавливается в ноутбуки ASUS ROG Strix SCAR II.
Точность настройки дисплея у конкретной модели ноутбука находится на хорошем уровне. Из положительных моментов отмечу хороший диапазон яркости экрана: максимальное значение светимости белого достигает 294 кд/м
2, а минимальное составляет 16 кд/м 2 — лэптопом удобно пользоваться в любую погоду и при любом освещении. Уровень контрастности составляет 1318:1, а гамма — 2,17, что несколько ниже эталонного значения 2,2, но не то чтобы очень далеко. Смотреть фильмы и играть на таком ноутбуке очень комфортно и приятно.
Однако цветовой охват матрицы не полностью соответствует стандарту sRGB — наблюдается небольшое смещение треугольника. Измерения показали, что среднее отклонение DeltaE по шкале серого составляет 2,46, максимальное — 3,28. Средний показатель в тесте ColorChecker24 достиг тоже 2,46 при максимальном отклонении 5,1. Цветовая температура держится у отметки 6500 K. В целом стабильность оттенков серого находится на хорошем уровне.
Glow-эффект, как и у большинства IPS-матриц, присутствует, но проявляется в основном на черном поле. Экран AUO обладает отличными углами обзора как по вертикали, так и по горизонтали. Наконец, используемая матрица относится к разряду Flicker-Free-решений во всем рабочем диапазоне яркости.
Звук у ROG Zephyrus S оказался лучше, чем у 501-й модели, но все равно звезд с неба не хватает. Два динамика суммарной мощностью 5 Вт расположены по бокам от клавиатуры. Звук не такой плоский, плюс запас громкости у динамиков весьма приличный. На максимальной громкости нет ни хрипов, ни артефактов.
⇡#Производительность ноутбука в ресурсоемких приложениях
Уже давно фактором, определяющим производительность любого ноутбука, является эффективность работы его системы охлаждения. Особенно критичной эта зависимость стала с появлением 6-ядерных процессоров Coffee Lake. С этого года я принял решение более подробно изучать возможности системы охлаждения лэптопов, а также выявлять зависимость уровня быстродействия CPU, GPU и оперативной памяти от качества используемого в системе кулера. В частности, отныне тестирование проходит не только в режиме по умолчанию, но и после ручной настройки в программе Intel Extreme Tuning Utility. А ведь уже скоро Intel представит и 8-ядерные ноутбучные чипы…
Программы калибра LinX и Prime95 — лакмусовая бумажка современных ноутбуков, собранных на основе чипов Coffee Lake. Как известно, тактовая частота Core i7-8750H составляет 2,2 ГГц, однако в режим Turbo Boost при загрузке всех шести ядер она может увеличиться до 3,9 ГГц. Только вот уровень TDP этого чипа составляет 45 Вт, и такого лимита мощности в ряде случаев оказывается недостаточно для работы мобильного ЦП на полную катушку.
Так, 6-ядерник ROG Zephyrus S сбрасывает частоту с 3,9 до 2,7 ГГц — и это, кстати, отличный результат. Максимальная температура самого горячего ядра поднялась до 85 градусов Цельсия, а уровень шума, измеренный с расстояния в 30 см, составил 39,1 дБА. Можно смело заявить, что в таких условиях «Зефир» работает довольно тихо.
Обращу ваше внимание, что тестирование проводилось в режиме «Баланс». Использовать пресет «Турбо», при котором вентиляторы системы охлаждения раскручиваются до максимальной частоты, нет никакого смысла.
Возможно, в тестовом образце ROG Zephyrus S используется весьма удачный центральный процессор. Мне удалось еще снизить напряжение питания 6-ядерника на 0,065 В — в таких условиях частота Core i7-8750H стала опускаться в LinX только до 2,8 ГГц. Уровень шума и показатель Core Max не изменились.
В других ресурсоемких приложениях частота центрального процессора периодически опускалась до 3,6 ГГц. Как видите, Turbo Boost работал не в полную силу, из-за чего при продолжительной нагрузке наблюдалось падение уровня производительности. Снижение VCore решило эту проблему, и Core i7-8750H начал везде и всегда работать с частотой 3,9 ГГц (система охлаждения справляется, энергопотребление за рамки TDP не выходит). Естественно, улучшились и результаты ноутбука, что можно заметить на графиках ниже.
⇡#Производительность ноутбука в играх
Использование в модификации GX701GX графики GeForce RTX 2080 Max-Q — это, пожалуй, самая «пикантная» особенность ROG Zephyrus S. В теории мы имеем дело со вторым по производительности GPU на сегодняшний день. Первым, конечно же, считается полноценная мобильная версия GeForce RTX 2080. Однако многое здесь зависит от самого лэптопа: насколько эффективно работает система охлаждения и какие настройки графического процессора установили разработчики.
В режиме работы «Баланс» частота GPU «Зефира» меняется в диапазоне от 1380 до 1835 МГц. Как видите, частота GeForce RTX 2080 Max-Q проседает весьма серьезно. Температура графического процессора при этом поднялась до 79 градусов Цельсия, а уровень шума, измеренный с расстояния в 30 см, составил 44,5 дБА — в играх ROG Zephyrus S работает довольно громко. Правда, общую картину «выправляет» характер шума — он низкочастотный, а потому менее назойливый. Самое горячее ядро центрального процессора нагрелось до 90 градусов Цельсия.
В режиме «Турбо» частота GPU опускалась до 1485 МГц, но при этом уровень шума увеличился до 49 дБА — это совсем некомфортный показатель. Зато температура графического процессора снизилась до 72 градусов Цельсия, а показатель Core Max составил 86 градусов Цельсия.
Тестирование ROG Zephyrus S проводилось в режиме «Турбо». К сожалению, это всего лишь второй ноутбук с мобильной RTX-графикой, который побывал в нашей тестовой лаборатории. Поэтому есть возможность сравнить «Зефир» только с моделью ASUS ROG Strix SCAR II (GL704GW), в которой установлена полноценная ноутбучная графика GeForce RTX 2070. Например, в тесте 3DMrk Time Spy, в подтесте Graphics, ROG Zephyrus S оказывается быстрее своего «сородича» на 6 %. В принципе, логичный результат, так как мы имеем дело с графикой Max-Q. Однако в тесте Port Royal, использующем трассировку лучей, «Зефир», набравший 4507 баллов, опережает ROG Strix SCAR II уже на 11 %. Сказывается наличие у GeForce RTX 2080 большего числа RT-ядер.
И все же интереснее, на мой взгляд, сравнить модель GX701GX с другим «Зефиром» — самым первым, версии GX501, в котором установлена графика GeForce GTX 1080 Max-Q. В тесте 3DMark Time Spy (строка Graphics) более современные лэптоп оказывается быстрее уже на 42 %. Вот это уже по-настоящему впечатляющая разница!
Думаю, вы уже давно обратили внимание на одну очень важную особенность всех ROG Zephyrus S — в продаже вы встретите модели исключительно с FHD-экранами. На мой взгляд, решение в ASUS приняли правильное, хотя графика калибра GeForce RTX 2080 уже состоятельна в разрешении Ultra HD. Этот GPU обеспечивает комфортный FPS во всех современных играх. Доказательство представлено в таблице ниже.
|
ASUS ROG Zephyrus S (GX701GX)
|
AVG FPS |
MIN FPS
|
«Ведьмак-3: Дикая охота», Новиград и окрестности |100
|63
|
GTA V, встроенный бенчмарк |75
|55
|
FarCry 5, встроенный бенчмарк |97
|68
|
Assassin's Creed Odyssey, встроенный бенчмарк |60
|48
|
Dota 2, запись матча |122
|70
|
Battlefield V, миссия «Последний тигр» |100
|60
|
Shadow of the Tomb Raider, встроенный бенчмарк |75
|68
|
Metro Exodus, Волга |75
|52
|
World of Tanks 1.0, EnCore бенчмарк |168
|115
|
Deus Ex: Mankind Divided, комплекс «Утулек» |69
|49
Во всех играх GX701GX оказывается быстрее модификации GX501 — в среднем превосходство RTX-ноутбука составляет 25-30 %. Как мне кажется, в разрешении Full HD наблюдается эффект процессорозависимости. Все-таки Core i7-8750H — это вам не какой-нибудь Core i7-9700K и даже не Core i7-8700K.
⇡#Быстродействие дисковой подсистемы
SSD в ASUS ROG Zephyrus S установлен очень быстрый. Модель Samsung MZVLB1T0HALR относится к серии PM981. Уверен, вы хорошо знакомы с этим накопителем — корейский производитель продает его в розницу под названием 970 EVO. Это значит, что в Samsung MZVLB1T0HALR применена 64-слойная TLC 3D V-NAND, которой управляет восьмиканальный контроллер Samsung Phoenix. Подробный обзор Samsung 970 EVO вы найдете здесь.
В ноутбук установлен аккумулятор на четыре ячейки емкостью 76 Вт⋅ч. Ноутбук позволяет переключать дисплей между встроенным графическим ядром и дискретной видеокартой, но даже в таком случае автономную работу ROG Zephyrus S нельзя назвать продолжительной. Так, при яркости экрана ~200 кд/м
2 ноутбук продержался меньше трех часов в режиме веб-серфинга. С другой стороны, показатели автономной работы у нового «Зефира» оказываются лучше, чем у 501-й модели.
А еще ROG Zephyrus S можно подзаряжать по интерфейсу USB 3.1 Gen2 Type-C — например, при помощи внешнего аккумулятора или небольшого блока питания мощностью 65 Вт. Это избавит вас от необходимости таскать с собой 230-ваттный БП, хотя без него вы не сможете нормально запускать игры. Кроме того, этот USB-разъем может использоваться для ускоренной подзарядки мобильных гаджетов с силой тока до 3 А.
|
Время автономной работы, 200 кд/м 2
|
Веб (открытие вкладок в Google Chrome) |2 ч 48 мин
|
Просмотр видео (4K, x265, HEVC) |2 ч 32 мин
|
Игры (UNIGINE Heaven, макс. настройки) |57 мин
В этом обзоре вы познакомились с хорошим, производительным и интересным ноутбуком. Мне очень сложно придраться ASUS ROG Zephyrus S (GX701GX), ведь такие параметры, как, например, малое время работы от аккумулятора, нельзя назвать недостатками любого 17-дюймового игрового лэптопа. К тому же новинка поддерживает интересную функцию зарядки при помощи внешнего аккумулятора (вот бы еще в комплекте шел какой-нибудь Power bank на 10-20 тысяч мА·ч). А вот за отдельную и хорошую веб-камеру, поддерживающую формат 1080p@60, выражаю ASUS отдельную благодарность.
Не вижу смысла ругать и клавиатуру. Уже предвижу негодование скептиков, но к такому расположению кнопок и тачпаду очень быстро привыкаешь. Играть на ROG Zephyrus S оказывается вполне комфортно. Наконец, у протестированного «Зефира» оказалась вполне качественная система охлаждения, которая справляется с далеко не самыми холодными компонентами. А еще мне нравится используемая в «Зефире» IPS-матрица — хорошо настроенная.
К минусам конструкции можно отнести сложность разборки устройства. В случае с нашей версией ROG Zephyrus S в этом трагедии нет никакой, но если вы возьмете лэптоп с 16 Гбайт ОЗУ и SSD малого объема, то через 2-3 года, возможно, с его апгрейдом возникнут определенные трудности. Относится ли к явным недостаткам устройства баснословная цена, по которой продаются сейчас ноутбуки с графикой GeForce RTX, решайте сами. Очевидно, отдать 240 000 рублей за ROG Zephyrus S (GX701GX) смогут лишь единицы наших читателей. |
985,879 | Gamesblender №408: проблемы Dragon Age 4, анонс новой Star Wars и объединение подписок Microsoft | С вами GamesBlender, еженедельный видеодайджест новостей игровой индустрии от 3DNews.ru. В сегодняшнем выпуске: корейский ответ Nier: Automata; свои квесты в третьем «Ведьмаке» стали реальностью; Octopath Traveler готовится убежать на ПК. А также другие новости и события игровой индустрии |
986,062 | Обзор NVMe SSD-накопителя Transcend MTE220S: дёшево – не значит плохо | Так уж получилось, что те производители твердотельных накопителей, которые до сих пор не обзавелись собственными командами разработчиков контроллеров, но при этом не хотят упускать из вида рынок SSD для энтузиастов, никакого особого выбора сегодня не имеют. Подходящий для них вариант, позволяющий организовать сборку действительно производительных накопителей с интерфейсом NVMe, предлагает всего одна компания – Silicon Motion, которая готова поставлять комплексные решения из своего контроллера и готовой микропрограммы всем желающим. Общедоступные базовые микросхемы для сборки NVMe-накопителей есть и у других фирм, например у тех же Phison или Realtek, но именно Silicon Motion захватила лидерство в этой сфере, предлагая партнёрам не только более функциональные, но и существенно более быстродействующие решения.
В то же время среди огромного многообразия NVMe-накопителей, построенных на базе контроллеров Silicon Motion, интерес для энтузиастов могут представлять далеко не любые модели. Эта фирма выпускает широкий ассортимент микросхем с принципиально различающимся уровнем быстродействия, но производительность, достойную SSD для продвинутых или максимальных конфигураций, могут обеспечить лишь избранные платформы. В частности, в прошлом году мы очень тепло отзывались о контроллере SM2262: по меркам 2018 года он действительно смотрелся весьма привлекательно, позволяя накопителям на его основе на равных выступать с лучшими потребительскими NVMe SSD производителей первого эшелона, включая Samsung, Western Digital и Intel.
Но в этом году ситуация несколько изменилась, так как ведущие производители обновили свои массовые модели верхнего уровня. В ответ на это Silicon Motion стала предлагать партнёрам улучшенную версию прошлогоднего контроллера, SM2262EN, которая тоже обещает прирост в параметрах производительности – в первую очередь в скорости записи. Получается, именно накопители на основе этого чипа и должны сегодня интересовать покупателей, которые рассчитывают получить в своё распоряжение современный и быстрый NVMe-накопитель, но при этом не хотят переплачивать за обладание продуктом A-бренда.
До недавних пор новый контроллер SM2262EN применяли в своей продукции не так много производителей. Фактически выбор сводился к двум вариантам: ADATA XPG SX8200 Pro и HP EX950. Но теперь появился и третий накопитель на основе этого чипа – его производство освоила компания Transcend. С данной новинкой, получившей название Transcend MTE220S, мы и собираемся познакомиться в этом обзоре.
Вводные данные к этому знакомству такие. HP EX950 в Россию не поставляется, а ADATA XPG SX8200 Pro в нашем недавнем тестировании никаких особенных козырей не продемонстрировал, предложив производительность на уровне накопителей на прошлом контроллере SM2262. И это значит, что, несмотря на появление новой версии контроллера Silicon Image, никаких NVMe SSD, которые бы смогли составить конкуренцию свежему Samsung 970 EVO Plus, мы пока ещё не видели. Окажется ли Transcend MTE220S более интересным по сравнению с ADATA XPG SX8200 Pro вариантом, мы как раз и собираемся выяснить в этом обзоре. Но сразу следует подчеркнуть, что, даже если этот SSD и не блеснёт скоростными параметрами, он всё равно может оказаться довольно интересным. Ведь Transcend собралась продавать его по удивительно низкой цене — по крайней мере низкой для полноценного накопителя с интерфейсом PCI Express 3.0 x4, DRAM-буфером и трёхмерной TLC-памятью.
Подробно о том, что представляет собой контроллер SM2262EN, мы уже говорили, когда знакомились с ADATA XPG SX8200 Pro. С технической стороны этот чип построен на двух ядрах ARM Cortex, использует восьмиканальный интерфейс для управления флеш-памятью, имеет DDR3/DDR4-интерфейс для буфера и поддерживает шину PCI Express 3.0 x4 с протоколом NVM Express 1.3. Иными словами, это современное и полнофункциональное решение для NVMe-накопителей, которое к тому же имеет очень неплохие показатели теоретической производительности и поддерживает продвинутые методы коррекции ошибок.
Первоначально контроллер SM2262EN был представлен ещё в августе 2017 года, одновременно с «простым» SM2262, однако преподносился в качестве его «продвинутой» версии, поставки которой должны были начаться позднее. Судя по всему, Silicon Motion собиралась придержать его до появления на рынке 96-слойной TLC 3D NAND, чтобы потом предложить ускоренные комплексные решения вместе с более плотной флеш-памятью. Однако такой план сорвался из-за сменившихся рыночных тенденций: чипы NAND начали стремительно дешеветь, и производители памяти решили задержать внедрение новых технологий. В результате Silicon Motion устала ждать и выпустила SM2262EN как обновление для SM2262 в составе платформы, ориентированной на работу с 64-слойной TLC 3D NAND.
При этом, если верить формальным спецификациям, версия платформы с контроллером SM2262EN всё равно обещает улучшение производительности: до 9 % при последовательном чтении, до 58 % – при последовательной записи, до 14 % – при случайном чтении и до 40 % – при случайной записи. Но если и верить в эти числа, то с большой осторожностью. Разработчики говорят прямо – никаких переделок в аппаратном строении SM2262EN не предполагает, он использует ровно ту же архитектуру, что и обычный SM2262. Всё преимущество опирается на изменения в программной части: платформы с новым контроллером используют более хитроумные алгоритмы записи и SLC-кеширования. Иными словами, речь идёт о некой попытке срезать углы, а не о том, что инженерам удалось совершить какой-то прорыв в механизмах работы.
Что это значит на практике, мы уже видели, когда тестировали ADATA XPG SX8200 Pro на базе контроллера SM2262EN. Этот накопитель оказался быстрее своего предшественника на чипе SM2262 лишь в бенчмарках, но не предложил никаких заметных улучшений в реальной производительности. Однако с Transcend MTE220S история несколько иная. У этого накопителя никаких близких родственников в модельном ряду нет, и для Transcend это абсолютно новая модель. На фоне того, что раньше в модельном ряду у этого производителя были лишь NVMe SSD начального уровня, паспортные характеристики MTE220S выглядят весьма внушительно.
|
Производитель |
Transcend
|Серия
|
MTE220S
|Модельный номер
|TS256GMTE220S
|TS512GMTE220S
|TS1TMTE220S
|Форм-фактор
|M.2 2280
|Интерфейс
|PCI Express 3.0 x4 – NVMe 1.3
|Ёмкость, Гбайт
|256
|512
|1024
|
Конфигурация
|Микросхемы памяти: тип, интерфейс, техпроцесс, производитель
|Micron 64-слойная 256-Гбит TLC 3D NAND
|Контроллер
|SMI SM2262EN
|Буфер: тип, объём
|DDR3-1866,
256 Мбайт
|DDR3-1866,
512 Мбайт
|DDR3-1866,
1024 Мбайт
|
Производительность
|Макс. устойчивая скорость последовательного чтения, Мбайт/с
|3500
|3500
|3500
|Макс. устойчивая скорость последовательной записи, Мбайт/с
|1100
|2100
|2800
|Макс. скорость произвольного чтения (блоки по 4 Кбайт), IOPS
|210 000
|210 000
|360 000
|Макс. скорость произвольной записи (блоки по 4 Кбайт), IOPS
|290 000
|310 000
|425 000
|
Физические характеристики
|Потребляемая мощность: бездействие/чтение-запись, Вт
|Н/д
|MTBF (среднее время наработки на отказ), млн ч
|1,5
|Ресурс записи, Тбайт
|260
|400
|800
|Габаритные размеры: Д × В × Г, мм
|80 × 22 × 3,5
|Масса, г
|8
|Гарантийный срок, лет
|5
Интересно, что заявленная производительность Transcend MTE220S несколько ниже тех скоростей, которые обещала для своего похожего накопителя на базе контроллера SM2262EN компания ADATA. По всей видимости, это связано с тем, что, хотя MTE220S и использует такую же аппаратно-программную платформу, его конструкция отличается от референсной. Для своего накопителя Transcend спроектировала собственную печатную плату, где в целях удешевления отказалась от использования 32-битного интерфейса DRAM-буфера в пользу более экономичного, 16-битного подключения. В результате снижаются предельные скорости случайного чтения и записи, и особенно это заметно у версии накопителя объёмом 512 Гбайт.
Тем не менее SLC-кеширование у Transcend MTE220S работает точно так же, как и у других накопителей с контроллером SM2262EN. Кеш использует динамическую схему, когда в ускоренный однобитовый режим переводится часть TLC-памяти из основного массива. Размер кеша подбирается таким образом, чтобы в SLC-режиме работала примерно половина свободной флеш-памяти. Таким образом, с высокой скоростью на MTE220S можно записать объём данных, по размеру составляющий примерно шестую часть от доступного на SSD пространства, затем же скорость существенно снизится.
Проиллюстрировать это можно следующим графиком, на котором показано, как меняется производительность непрерывной последовательной записи на пустой Transcend MTE220S ёмкостью 512 Гбайт.
В ускоренном режиме, когда запись происходит в SLC-режиме, 512-гигабайтная версия MTE220S обеспечивает производительность на уровне 1,9 Гбайт/с. В TLC-режиме массив флеш-памяти работает существенно медленнее, и после исчерпания свободного места в SLC-кеше скорость снижается до 460 Мбайт/с. На графике виден и третий вариант скорости – 275 Мбайт/с. До такого значения быстродействие при последовательной записи снижается в том случае, когда свободной флеш-памяти уже не остаётся, и для того, чтобы поместить в неё какие-то дополнительные данные, контроллеру сначала требуется перевести ячейки, задействованные под SLC-кеш, в обычный TLC-режим. В итоге получается, что средняя скорость непрерывной записи на Transcend MTE220S 512 Гбайт «от начала и до конца» составляет порядка 410 Мбайт/с, а на полное заполнение этого накопителя данными необходимо потратить не менее 21 минуты. Это не слишком оптимистичный показатель: например, тот же Samsung 970 EVO Plus можно полностью забить под завязку всего за 10 минут.
При этом SLC-кешу Transcend MTE220S присуща та же уникальная особенность, которую мы обнаружили ещё в ADATA XPG SX8200 Pro. Данные из него переносятся в обычную память далеко не сразу, а лишь тогда, когда он заполняется более чем на три четверти. Это позволяет добиваться повышения скоростей чтения при обращении к файлам, которые были записаны только что. Данная возможность имеет мало смысла при реальном использовании SSD, но зато сильно помогает накопителю в синтетических бенчмарках, которые как раз и практикуют сценарии вида «запись — чтение».
Как это выглядит на практике, можно оценить по следующему графику скорости случайного чтения при доступе к файлу не только сразу же после его создания, но и тогда, когда вслед за этим файлом на SSD было записано ещё какое-то количество информации.
Здесь очень наглядно прослеживается тот момент, когда контроллер перемещает тестовый файл из SLC-кеша в основную флеш-память, поскольку скорость мелкоблочного чтения в этот момент падает примерно на 10 %. Именно с такой, сниженной скоростью и будут иметь дело пользователи в подавляющем большинстве случаев, поскольку никаких алгоритмов обратного перемещения данных из TLC-памяти в SLC-кеш в микропрограмме Transcend MTE220S не предусмотрено, а задерживаться в SLC-кеше файлы могут лишь в том случае, если накопитель в процессе эксплуатации остаётся свободным более чем на 90 процентов.
Иными словами, в части работы с SLC-кешем Transcend MTE220S мало отличается от других накопителей на базе контроллера SM2262EN. Но это вовсе не значит, что он похож на ADATA XPG SX8200 Pro во всём. У предложения Transcend есть весомое достоинство иного порядка – более высокие разрешённые условиями гарантии объёмы перезаписи. Без её потери накопитель можно полностью перезаписать данными 800 раз, а версию объёмом 256 Гбайт – более 1000 раз. Такие показатели заявленного ресурса позволяют надеяться, что для MTE220S производителем закупается флеш-память высшей градации качества, и это означает, что реальная надёжность накопителя сможет устроить даже тех пользователей, которые всё ещё относятся к TLC 3D NAND с большим недоверием.
⇡#Внешний вид и внутреннее устройство
Для подробного знакомства по традиции была выбрана модель Transcend MTE220S объёмом 512 Гбайт. Никаких сюрпризов своей внешностью она не преподнесла, это – обычный накопитель в форм-факторе M.2 2280, который работает через шину PCI Express 3.0 x4 и поддерживает протокол NVM Express версии 1.3. Однако вид упаковки и комплект поставки MTE220S навевают устойчивые ассоциации с дешёвым ширпотребом. Даже бюджетный безбуферный SSD MTE110S компания продавала в полноценной коробке, а рассматриваемая новинка, которая позиционируется в качестве решения более высокого уровня, оказалась упакована в блистер, в котором, помимо собственно M.2-платы накопителя, нет вообще ничего. Всё это очень напоминает то, в каком виде поставляются на рынок microSD-карты, и, очевидно, служит цели сокращения накладных расходов. Впрочем, едва ли кто-то до сих пор выбирает SSD по упаковке.
Не отличается выразительным внешним видом и сам рассматриваемый SSD. В его конструкции не предусмотрено никаких радиаторов, а наклейка не имеет слоя теплопроводящей фольги. Да и в целом Transcend MTE220S выглядит скорее как OEM-продукт, нежели как решение для энтузиастов. Подчёркивает это впечатление текстолит печатной платы подзабытого уже зеленого цвета и сугубо утилитарная этикетка, не имеющая никаких признаков дизайна и содержащая одну лишь служебную информацию.
Компоновку платы MTE220S нельзя назвать типовой — её, судя по всему, инженеры Transcend видоизменили для каких-то собственных нужд. По крайней мере, рассмотренный нами ранее накопитель ADATA XPG SX8200 Pro, несмотря на использование аналогичной аппаратной платформы, выглядел совсем иначе. Впрочем, двухстороннее расположение компонентов новинка Transcend сохранила, поэтому для «низкопрофильных» слотов M.2, которые встречаются в тонких ноутбуках, MTE220S может не подойти.
Массив флеш-памяти, размещённый на MTE220S 512 Гбайт, набран четырьмя микросхемами с собственной маркировкой Transcend. Известно, что внутри каждой из таких микросхем находится по четыре 256-гигабитных кристалла 64-слойной памяти Micron TLC 3D NAND второго поколения. Transcend закупает такую память у Micron в виде цельных пластин, но резку, тестирование и упаковку кремниевых кристаллов в микросхемы берёт на себя, что позволяет добиваться дополнительной производственной экономии.
Обратить внимание следует и на микросхему DDR4-1866 SDRAM, расположенную рядом с чипом базового контроллера SM2262EN. Она выполняет функцию буфера для хранения копии таблицы трансляции адресов, но важно здесь то, что в рассматриваемом накопителе имеется лишь одна такая микросхема, производства Samsung, ёмкостью 512 Мбайт. Мы специально обращаем на это внимание, поскольку у других SSD с контроллером SM2262EN быстрый DRAM-буфер обычно состоит из пары микросхем вдвое меньшего объёма. В результате, в Transcend MTE220S работа с DRAM-буфером происходит посредством 16-битной, а не 32-битной шины, что в теории способно несколько навредить производительности при мелкоблочных операциях. Впрочем, влияние данного фактора не стоит переоценивать: 32-битная шина для оперативной памяти – это уникальная особенность платформы SM2262/SM2262EN, тогда как другие контроллеры для SSD используют DRAM-буфер с 16-битной шиной и совершенно от этого не страдают.
Для обслуживания накопителей собственного производства компания Transcend выпускает специальную утилиту SSD Scope. Её возможности почти типичны для программных продуктов такого класса, однако часть привычных функций по какой-то причине не поддерживается.
SSD Scope позволяет следить за общим состоянием накопителя и оценивать его здоровье, обращаясь к телеметрии S.M.A.R.T. В утилите имеются простые тесты быстродействия, а также проверка версии микропрограммы и возможность её обновления.
Также в утилиту встроен инструмент для клонирования содержимого дисков, который позволяет выполнить быстрый и безболезненный перенос операционной системы и установленных приложений на свежекупленный SSD. Плюс к этому SSD Scope умеет управлять передачей на накопитель команды TRIM.
Для SATA-накопителей SSD Scope может также предложить проверку массива флеш-памяти на предмет ошибок или выполнение процедуры «надёжной очистки» флеш-памяти Secure Erase. Но с Transcend MTE220S обе эти функции по какой-то причине не работают.
Тестирование проводится в операционной системе Microsoft Windows 10 Enterprise x64 Build 16299, корректно распознающей и обслуживающей современные твердотельные накопители. Это значит, что в процессе прохождения тестов, как и при обычном повседневном использовании SSD, команда TRIM поддерживается и активно задействуется. Измерение производительности выполняется с накопителями, находящимися в «использованном» состоянии, которое достигается их предварительным заполнением данными. Перед каждым тестом накопители очищаются и обслуживаются с помощью команды TRIM. Между отдельными тестами выдерживается 15-минутная пауза, отведённая для корректной отработки технологии сборки мусора. Во всех тестах используются рандомизированные несжимаемые данные.
Раздел, в пределах которого тестируется скорость операций, имеет размер 32 Гбайт, а продолжительность каждого теста составляет сорок секунд. Такие параметры, в частности, позволят получать более релевантные результаты для тех SSD, которые используют различные технологии SLC-кеширования.
Используемые приложения и тесты:
С выходом процессоров Coffee Lake Refresh мы решили в очередной раз обновить тестовую систему, которая используется для измерения производительности NVMe-моделей SSD. Всё-таки такие накопители в первую очередь покупают энтузиасты, переходящие на новые платформы, и поэтому логично использовать в тестовых испытаниях новейшую платформу.
В итоге в качестве тестовой платформы используется компьютер с материнской платой ASRock Z390 Taichi, процессором Core i7-9700K со встроенным графическим ядром Intel UHD Graphics 630 и 8 Гбайт DDR4-2666 SDRAM. Накопители с интерфейсом M.2 во время тестирования устанавливаются в соответствующий слот материнской платы, подключенный к чипсету. Накопители в виде карт PCI Express устанавливаются в слот PCI Express 3.0 x4, также работающий через чипсет.
Объём и скорость передачи данных в бенчмарках указываются в бинарных единицах (1 Кбайт = 1024 байт).
Отдельное пояснение следует сделать относительно закрытия процессорных уязвимостей Meltdown и Spectre. Существующие патчи заметно снижают производительность твердотельных накопителей, поэтому измерения проводятся с деактивированными «заплатками» OC, которые служат для закрытия этих уязвимостей.
⇡#Список участников тестирования
Судя по всему, Transcend MTE220S должен стать крепким игроком среднего класса. Поэтому для сегодняшнего теста мы отобрали наиболее распространённые NVMe SSD, доступные в настоящее время в магазинах. Это как передовые решения компании Samsung, так и накопители Intel, Western Digital или ADATA. Кроме того, в тесты включён и предшественник Transcend MTE220S, безбуферный NVMe-накопитель MTE110S с технологией HMB.
В результате список протестированных моделей получил следующий вид:
Используемые версии NVMe-драйверов:
⇡#Производительность последовательного чтения и записи
Новому Transcend MTE220S удаётся продемонстрировать сравнительно неплохую скорость линейного чтения. Причём при отсутствии очереди запросов его результат даже не хуже, чем у флагманских накопителей Samsung. Но вот линейная запись – не столь благоприятная нагрузка для этого SSD. Когда мы знакомились с ADATA XPG SX8200 Pro, то отмечали, что алгоритмы SLC-кеширования у контроллера SM2262EN выстроены не самым эффективным образом. И результат Transcend MTE220S отчасти это подтверждает. Дело в том, что, хотя динамический SLC-кеш у данного накопителя имеет сравнительно большой объём, значительная его часть остаётся заполнена данными после предшествующих операций записи.
⇡#Производительность произвольного чтения
Никаких особенно впечатляющих показателей производительности при операциях случайного чтения Transcend MTE220S продемонстрировать не может. При работе с очередями небольшой глубины он ведёт себя как предложение среднего уровня, но при увеличении конвейеризации скоростные характеристики сползают в сторону бюджетных решений. В этом новинка Transcend повторяет поведение ADATA XPG SX8200 Pro – накопителя, построенного на той же самой аппаратной платформе.
⇡#Производительность произвольной записи
Примерно так же, как и с чтением, ситуация складывается и при обработке рассматриваемым SSD операций произвольной записи. Transcend MTE220S обеспечивает средний уровень быстродействия, отставая от конкурентов, предлагаемых производителями первого эшелона – Samsung, Western Digital и Intel. Пытаясь при помощи SLC-кеша ускорять операции чтения, платформа SM2262EN не даёт алгоритмам кеширования развернуться в полную силу при записи данных. И в итоге получается, что убедительную производительность, свойственную флагманским SSD, она не может предложить ни при случайном чтении, ни при случайной записи.
⇡#Производительность при смешанной нагрузке
Накопители, построенные на контроллерах разработки Silicon Motion, традиционно отличаются хорошим быстродействием при работе со случайным потоком команд. И такой акцент зачастую делает их весьма выигрышными решениями, потому что смешанные операции – это наиболее распространённая дисковая нагрузка в современных многопоточных операционных системах. Transcend MTE220S в этом отношении является позитивным примером. Как и родственный накопитель ADATA XPG SX8200 Pro, SSD Transcend занимает на приведённых диаграммах верхние позиции, опережая даже маститый Samsung 970 EVO Plus.
⇡#Производительность в CrystalDiskMark
Когда мы знакомились с первым накопителем на базе контроллера SM2262EN, ADATA XPG SX8200 Pro, мы много внимания уделили тому, что созданная инженерами Silicon Motion платформа специально оптимизирована под разного рода популярные бенчмарки. Действительно, расценить иначе тот факт, что записываемые на SSD файлы задерживаются в SLC-кеше в надежде на повторные к ним обращения, достаточно трудно. Ведь именно бенчмарки ведут себя таким образом: сначала создают файл для проведения тестирования, а потом замеряют скорости при обращении к ним. И точно также поступает рассматриваемый сегодня Transcend MTE220S. Именно это и объясняет те фантастически высокие показатели, которые приведены на скриншоте CrystalDiskMark, особенно в части скорости мелкоблочного чтения.
Однако не стоит обольщаться. Если речь пойдет о работе Transcend MTE220S с файлами, которые записаны на нём не только что, а некоторое время тому назад, то столь высоких скоростей он уже не продемонстрирует. Выше мы наглядно показали, что производительность мелкоблочного чтения у этого накопителя при доступе к обычным файлам примерно на 20 % ниже, чем при работе с файлами, которые созданы непосредственно перед проведением тестирования.
⇡#Производительность в PCMark 8 Storage Benchmark 2.0
PCMark 8 оценивает Transcend MTE220S достаточно высоко. Отчасти это обусловлено эффективным подходом контроллера SM2262EN к обслуживанию смешанных операций, а отчасти – его алгоритмами ускоренного чтения, ориентированными на достижение высоких результатов в бенчмарках. Тем не менее даже в отрыве от таких оптимизаций Transcend MTE220S – это очень неплохое решение среднего уровня, которое на фоне других современных накопителей смотрится вполне достойно. По крайней мере, у нас нет никаких сомнений в том, что новинка компании Transcend как минимум не хуже прошлогодней версии Samsung 970 EVO. При этом мы не будет отрицать, что обновлённый Samsung 970 EVO Plus – решение более высокого уровня, но MTE220S и не претендует на лавры флагманского решения, ведь это сравнительно недорогой NVMe SSD.
Интегральный результат PCMark 8 нужно дополнить и показателями производительности, выдаваемыми накопителями при прохождении отдельных тестовых трасс, которые моделируют различные варианты реальной нагрузки. Дело в том, что при разноплановой нагрузке флеш-накопители могут вести себя каким-либо особым образом.
Любопытно, что, если сравнивать показатели производительности Transcend MTE220S и ADATA XPG SX8200 Pro – двух накопителей, построенных на схожей элементной базе, то можно увидеть заметные различия в их поведении, которые проявляются в Adobe Photoshop. В этом приложении лучшее быстродействие выдаёт вариант ADATA.
⇡#Производительность при реальной нагрузке
В файловых операциях Transcend MTE220S оказывается быстрее своего безбуферного предшественника, MTE110S, однако от новых NVMe SSD, выпущенных ведущими производителями в этом году, он отстаёт.
Но в роли системного накопителя, на котором устанавливается операционная система, приложения и игры, Transcend MTE220S проявляет себя сравнительно неплохо. Нет, до лидеров он не дотягивает. Но тем не менее лучшие результаты могут предложить разве только накопители компании Samsung, относящиеся к несколько иному уровню с точки зрения позиционирования. Получается, что MTE220S вполне может проявить себя как удачный компромисс между ценой и производительностью. И это совсем неудивительно: платформы Silicon Motion всегда оказываются хорошо подходящими именно для «бытовых» нагрузок, и Transcend MTE220S это ещё раз подтверждает.
⇡#Деградация и восстановление производительности
Наблюдение за изменением скорости записи в зависимости от объёма записанной на диск информации — важный эксперимент, позволяющий понять работу внутренних алгоритмов накопителя. В данном тесте мы загружаем SSD непрерывным потоком запросов на случайную запись 4-килобайтных блоков с очередью максимальной глубины и попутно следим за той производительностью, которая при этом наблюдается. На приведённом ниже графике в виде точек отмечены результаты измерений моментальной производительности, которые мы снимаем ежесекундно, а чёрная линия показывает среднюю скорость, наблюдаемую в течение 30-секундного интервала.
Первые 80 Гбайт данных, которые записываются в SLC-кеш чистого накопителя, делают это с достаточно высокой скоростью — на уровне 260 тысяч IOPS. После заполнения кеша производительность записи падает до 110 тысяч IOPS. Этот показатель выдерживается до тех пор, пока в массиве флеш-памяти не заканчивается свободное место, после чего производительность снижается дополнительно.
В целом эти показатели производительности записи нельзя назвать выдающимися. Мы уже говорили о том, что при больших объёмах данных запись на Transcend MTE220S выполняется со сравнительно невысокой скоростью. Здесь же мы видим подтверждение того, что на этот накопитель неблагоприятно влияют и околосерверные сценарии. И дело не только в том, что скорость моментальной записи может существенно меняться раз от раза. Просто многие современные NVMe SSD даже потребительского уровня могут предложить более высокую производительность случайной многопоточной записи при продолжительных нагрузках.
Посмотрим теперь, как происходит восстановление скоростных характеристик до первоначальных величин за счёт работы технологии сборки мусора. Для исследования этого вопроса после завершения предыдущего теста, приводящего к снижению скорости записи, мы выжидаем 15 минут, в течение которых SSD может попытаться самостоятельно восстановиться за счёт сборки мусора, но без помощи со стороны операционной системы и команды TRIM, и замеряем быстродействие. Затем на накопитель принудительно подаётся команда TRIM — и скорость измеряется ещё раз, что позволяет убедиться в способности SSD с помощью TRIM полностью восстанавливать свою паспортную производительность.
Мы были готовы к тому, что обработка TRIM рассматриваемым накопителем компании Transcend вызовет вопросы. По тестированию аналога компании ADATA мы уже знаем, что контроллер SM2262EN к команде операционной системы на высвобождение страниц флеш-памяти под будущие операции подходит очень творчески. TRIM активирует сборку мусора только в основном массиве памяти, но на содержимое кеша эта команда, как следует из результатов, не распространяется.
Алгоритмы переноса данных из SLC-кеша в массив основной TLC-памяти у Transcend MTE220S работают с большой задержкой, поэтому выходит так, что даже после TRIM в кеше оказывается свободен относительно небольшой объёма пространства (порядка 6,5 Гбайт). Иными словами, все традиционные плюсы динамического SLC-кеширования в Transcend MTE220S нейтрализованы отложенным ради повышения результатов в бенчмарках освобождением кеша.
Давайте теперь посмотрим на то, насколько тяжело контроллеру SM2262EN даётся обработка TRIM. Когда операционная система передаёт накопителю информацию о том, что какие-то сектора выводятся файловой системой из обращения, контроллер SSD должен консолидировать эти секторы и очистить освобождающиеся страницы флеш-памяти для выполнения будущих операций. Такая перегруппировка требует перезаписи и очистки областей памяти, и это не только занимает заметное время, но и серьёзно нагружает контроллер работой. В результате после удаления с диска больших объёмов данных владельцы SSD могут столкнуться с эффектом временного замедления или даже с «фризами» накопителя. На практике это может вызвать серьёзный дискомфорт, ведь никто не ожидает, что SSD, основным достоинством которого является моментальная реакция на внешние воздействия, будет замирать на несколько секунд.
Поэтому мы добавили в методику дополнительное исследование, которое позволяет отслеживать, насколько незаметно для пользователя тот или иной SSD обслуживает команды TRIM. Способ проверки очень прост: сразу после удаления крупного файла — объёмом 32 Гбайт — мы проверяем, как накопитель справляется с операциями произвольного чтения данных, контролируя как скорость чтения, так и время ожидания, которое проходит с момента каждого запроса данных до ответа накопителя.
После удаления файла объёмом 32 Гбайт накопителю нужно около 3 секунд, чтобы привести себя в норму. В течение этого срока он перестаёт реагировать на внешние воздействия практически полностью. Время отклика вырастает до десятых долей секунды, а производительность падает до нуля даже при чтении. Поведение не из приятных, но справедливости ради стоит заметить, что накопителей, не подверженных такому эффекту, среди потребительских моделей практически нет.
⇡#Проверка температурного режима
Контроллер SM2262EN греется не слишком сильно. Когда мы тестировали накопитель ADATA на его основе, нам так и не удалось вогнать его в троттлинг. Тем не менее распространять этот опыт на Transcend MTE220S без практической проверки нельзя. Дело в том, что ADATA XPG SX8200 Pro снабжался алюминиевой теплораспределительной пластиной, а Transcend MTE220S никаких специальных средств для охлаждения не имеет. Не придётся ли пользователям MTE220S прилаживать к нему какие-то собственные дополнительные радиаторы?
Ответить на этот вопрос должно тестирование, в рамках которого мы последили за температурным режимом накопителя при его нагрузке последовательными операциями с глубиной очереди запросов в 32 команды. Измерения проводились на открытом стенде, какого-либо дополнительного обдува SSD воздушным потоком не было.
К сожалению, побывавшая у нас на тестах полутерабайтная версия Transcend MTE220S при определённых условиях оказалась склонна к перегреву. Критической температурой для этого накопителя является температура 75 градусов, и при её превышении включается троттлинг, а производительность падает. Достичь такого нагрева, как оказалось, сравнительно нетрудно при непрерывной записи порядка 100 Гбайт данных, на что уходит около полутора минут.
Зато при операциях интенсивного чтения троттлинг не наблюдается. Накопитель постепенно разогревается, но без каких-либо негативных эффектов в виде падения быстродействия. Тем не менее, эксплуатировать Transcend MTE220S всё же лучше с дополнительным охлаждением. Благо, современные материнские платы часто предлагают готовые решения для отвода тепла от установленных в них M.2-накопителей.
С контроллером SMI SM2262EN, на котором основывается рассмотренный в этом обзоре накопитель Transcend MTE220S, мы успели уже подробно познакомиться ранее. И сегодняшнее тестирование не добавило в сформировавшуюся картину никаких новых штрихов. Поэтому придётся признать, что Transcend MTE220S – это брат-близнец ADATA XPG SX8200 Pro, с отличиями на уровне дизайна печатной платы и внешнего оформления.
В обзоре накопителя ADATA мы высказывались в адрес контроллера SM2262EN достаточно нелицеприятно, но на самом деле, если не требовать от него многого, всё далеко не так плохо. Как показывает подробное разбирательство, платформа SM2262EN мало отличается от обычной платформы SM2262. В ней лишь введены некоторые неоднозначные оптимизации, направленные на улучшение показателей в синтетических бенчмарках, но на скорость при обычном использовании SSD они почти не влияют. Иными словами, разработчики ничего не испортили, и это хорошо, поскольку старый контроллер SM2262 нельзя было назвать плохим или недостаточно быстрым. Пусть накопители на его основе по сегодняшним меркам и не ставят никаких рекордов, тем не менее они продолжают выглядеть как добротные NVMe-решения среднего класса.
Именно так мы и можем охарактеризовать Transcend MTE220S. Эту новинку определённо нельзя отнести к числу лидирующих массовых NVMe SSD, поскольку она заведомо слабее «образцово-показательного» Samsung 970 EVO Plus. Но на самом деле MTE220S и не собирается замахиваться на лавры флагмана. В его случае сыграть должно удачное сочетание потребительских характеристик, среди которых немалое значение имеет доступная цена.
Transcend сделала ставку на максимальное удешевление, которое только возможно допустить для полноценного NVMe SSD с интерфейсом PCIe 3.0 x4, восьмиканальным контроллером, современной многослойной TLC-флеш-памятью и DRAM-буфером. И если мы правильно поняли намерения производителя, то в результате всех ухищрений новый Transcend MTE220S должен продаваться даже за меньшие деньги, чем ADATA XPG SX8200 Pro, что позволит ему играть против совсем уж недорогих NVMe SSD других фирм. И в этом рыночном сегменте у предложения Transcend действительно просматриваются хорошие перспективы, ведь по быстродействию его вполне можно соотнести с заметно более дорогими предложениями уровня Intel SSD 760p или Western Digital Black SN750. |
986,081 | Phoenix Wright: Ace Attorney Trilogy — встретимся в суде. Рецензия | |
Жанр |Приключение/головоломка
|
Издатель |Capcom
|
Разработчик |Capcom
|
Минимальные требования |Процессор Intel Core i3-4160 3,6 ГГц/AMD FX-4350 4,2 ГГц, 4 Гбайт RAM, видеокарта с поддержкой DirectX 11, например Intel HD Graphics 4400, 1,8 Гбайт на жестком диске
|
Рекомендуемые требования |Процессор Intel Core i5-3570 3,4 ГГц/AMD FX-8350 4,0 ГГц, 4 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 2 Гбайт памяти, например NVIDIA GeForce GTX 660/AMD Radeon HD 6970
|
Дата выхода |9 апреля 2019 года
|
Возрастной ценз |от 12 лет
|
Платформы |PC, PlayStation 4, Xbox One, Nintendo Switch
|
Официальный сайт *Игра протестирована на * *PlayStation* * 4*
В очередной раз брать на себя роль солдата, супергероя, наемного убийцы и других подобных персонажей бывает интересно, но именно игры о представителях необычных профессий могут оставить после себя действительно незабываемые впечатления. К ним относится серия Ace Attorney, предлагающая игроку примерить на себя роль адвоката. Мы беремся доказать невиновность обвиняемых, собирая улики, общаясь со свидетелями, и пытаемся всеми силами оттянуть оглашение приговора в суде — даже если необходимых доказательств у нас пока нет.
Первой части Ace Attorney через полтора года исполнится двадцать лет, но она, как и многие сюжетные игры без акцента на графике, не устарела. И темы в ней поднимаются до сих пор актуальные, и персонажи такие же яркие, да и вообще подобных этой серии головоломок за два десятка лет не было. Можно вспомнить отличную Danganronpa, в которой группа ребят каждый день обнаруживала, что кто-то из них погиб при странных обстоятельствах, после чего они собирались за круглым столом и искали виновника. Но если там были дурацкие мини-игры и прочие отвлекающие элементы, то в Ace Attorney все проще, хотя некоторые эпизоды и растягиваются часов на шесть.
В начале очередной главы мы видим, как происходит преступление: один человек бьет другого по голове, вонзает в грудь нож или стреляет. Поначалу кажется, что все в этом деле ясно, — вполне разделяешь чувства судьи, который готов уже ударить церемониальным молотком и вынести вердикт. Но адвокат Феникс Райт не собирается так просто сдаваться — ему всегда кажется, будто что-то не так. То подсудимый как-то подозрительно берет вину на себя и убеждает не браться за дело, то свидетели явно что-то скрывают. Главный герой соглашается защищать виновных даже в тех случаях, когда настоящий преступник уничтожает все следы, — хоть одна зацепка наверняка осталась.
Сразу же в суд никто не отправляется (если не считать обучающие эпизоды в начале каждой игры) — сперва необходимо изучить место преступления, пообщаться с детективом, найти улики, которые полиция могла не заметить. Каждая локация — статичный экран, по которому можно водить курсором в режиме исследования, как в играх о поиске предметов. Нередко там же встречаются люди, с которыми удается обсудить случившееся или показать им найденные улики и разблокировать новые диалоги. Когда все встанет на свои места, игра автоматически перенесет вас в зал суда, где уже на следующий день после инцидента начинается разбирательство.
Мы выступаем в роли адвоката, напротив нас стоит прокурор. Мы должны убедить судью в том, что наш подзащитный невиновен, а сторона обвинения будет всячески препятствовать этому: вызывать неожиданных свидетелей, вспоминать об уликах, придумывать самые невероятные истории, лишь бы они не противоречили фактам и показаниям и очерняли «виновника». Протагонист может реагировать на эти действия — в некоторых случаях судья задает ему прямые вопросы, в других можно выбрать в инвентаре улику и продемонстрировать ее, чтобы подкрепить свою точку зрения.
Главная составляющая эпизодов в суде — показания свидетелей или обвиняемых. Сначала вы выслушиваете их тирады, потом судья говорит, что вроде бы никаких проблем нет, после чего начинается перекрестный допрос. Показания каждого человека делятся на несколько частей, и вы вольны оказывать давление на выступающего, нажимая на соответствующую кнопку после каждой реплики. Например, кто-то скажет, что он «точно видел в офисе лишь двоих сотрудников» — если надавить на свидетеля, Феникс Райт наверняка уточнит, действительно ли тот так уверен в этом.
Тут-то и происходит самое интересное. Райт пытается что-то узнать, свидетель начинает отвечать, прокурор его перебивает, доказывает, что та или иная информация не имеет отношения к делу. Райт протестует, пытается убедить судью, что ему необходимо это выяснить. Иногда приходится доставать улики и показывать их, связывая какой-то предмет с темой обсуждения. Камера переключается между разными участниками заседания, нередко все друг на друга орут. Озвучения в трилогии нет, но эмоций на лицах персонажей и шикарно подобранной под каждую ситуацию музыки оказывается достаточно, чтобы сидеть как на иголках и не отрывать взгляд от экрана.
Простые дела заканчиваются довольно быстро, а уже в третьем эпизоде истину вы узнаете лишь через несколько часов после демонстрации преступления. Сценаристы придумали поистине интересные ситуации, хотя пара глав скатывается в спиритуализм, из-за чего становится трудно серьезно относиться к происходящему. Остальные дела близки к реальной жизни. Да, суды на самом деле так не работают, детективы не так разговорчивы, а судьи не настолько мягкотелые (иногда диалоги с бессменным служителем Фемиды доходят до абсурда), но все равно за творящимся в зале суда хаосом наблюдаешь с неподдельным интересом именно из-за того, каким необычным образом все запутано и насколько гениальны настоящие злодеи.
Хороши и персонажи, в особенности прокуроры, с которыми предстоит иметь дело. Некоторые нарисованы и прописаны так, что действительно ощущаешь их многолетний опыт, влиятельность и расчетливость. Вроде бы тебе удалось показать судье улику, которая превратит показания свидетеля в полную бессмыслицу, но прокурор буквально за пару секунд раздавит попытку и продолжит ехидно улыбаться. Потому заседания так и затягиваются, но такая особенность Ace Attorney никогда не раздражает из-за отличной подачи, прекрасного юмора и запоминающихся героев.
А вот эпизоды перед заседаниями, где вы перемещаетесь из одной зоны в другую, могут утомлять. Во-первых, не всегда понятно, куда нужно ехать после очередного диалога, — все-таки игра линейная и необходимо следовать проложенному сценаристами пути. Во-вторых, беседы иногда затягиваются слишком уж надолго, особенно когда персонажи начинают откровенно тормозить и не понимают простых вещей. С ними нередко интересно общаться, особенно в начале расследования, но когда встречаешься в пятый раз и обмусоливаешь одно и то же, это немного наскучивает.
Зато по возвращении в зал суда ситуация значительно улучшается. О недостатках в эти моменты вообще не задумываешься. Конечно, бывают проблемы с логикой, когда додумываешься о чем-то задолго до главного героя или когда улику судья по какой-то причине отказывается рассматривать в качестве доказательства, требуя нечто другое. Однако даже такие недочеты легко удается игнорировать, хотя Capcom все же следовало немного улучшить логику в паре дел. С другой стороны, в таком случае это были бы не совсем те игры, которые выходили много лет назад, и фанаты остались бы недовольны.
В техническом плане к трилогии Ace Attorney нет никаких претензий. Визуальная составляющая была кропотливо перерисована, чтобы все прекрасно выглядело даже на большом экране. Хотя модельки персонажей напоминают работы начинающих художников, которые умеют только рисовать контуры и наносить тени без какой-либо детализации, все равно шарма и обаяния у героев — хоть отбавляй. Музыка тоже замечательная и буквально въедается в память. А после завершения каждого дела оно становится доступно в виде отдельной главы, так что для возврата к какому-то полюбившемуся эпизоду не придется пробегать всю игру с самого начала.
*******
На полное прохождение всех трех частей Ace Attorney уйдет как минимум 45 часов. И это будет шикарно проведенное время, в компании здорово прописанных героев, попадающих в такие передряги, которые не снились даже Шерлоку Холмсу. Эту серию трудно отнести к какому-то жанру — ее легко назвать и головоломкой, и детективом, и визуальной новеллой. Необычное смешение игровых механик вкупе с оригинальной основной идеей делает Ace Attorney отличным развлечением для желающих опробовать что-то новое. Хорошо и то, что данная трилогия состоит из первых трех частей серии, которые фанаты считают самыми лучшими. Так что всех, кто не знаком с невероятными приключениями Феникса Райта, можно поздравить с отменным релизом.
**Достоинства:** **Недостатки:**
|
|
Графика, конечно, не самая сильная сторона этих игр, но смотреть на картинку приятно.
|
|
Если провести в Ace Attorney несколько дней подряд, музыка в голове будет играть постоянно. И ничего плохого в этом нет, ведь саундтрек отличный.
|
|
Три игры, каждая занимает примерно по 15 часов. Отличный набор для тех, кто раньше никогда не видел эту серию.
|
|
Не предусмотрена.
|
|
Прекрасная коллекция из трех чудесных игр, которые за все эти годы никак не устарели.
*Оценка: 8* *,0* */10* **Видео:** |
986,090 | Обзор видеокарты Inno3D GeForce GTX 1660 Twin X2: выбор экономных | Благодаря недавнему обновлению драйверов видеокарты GeForce 10-й и 16-й серии научились выполнять трассировку лучей в играх с поддержкой DXR. Если судить по нашим тестам, на GeForce GTX 1660 и GTX 1660 Ti (да и любых других моделях NVIDIA, за исключением GeForce RTX и старших ускорителей на чипах Pascal) эта функция скорее работает в демонстрационном режиме, нежели несет какую-либо практическую ценность. Но пусть трассировка лучей в реальном времени не по плечу GeForce GTX 1660, это не умаляет прочих достоинств младшего представителя семейства Turing. GeForce GTX 1060 потерял былую привлекательность, и баланс сил среди графических карт средней ценовой категории было сместился в пользу Radeon RX 580 и RX 590, однако новинки на чипе TU116 мгновенно вернули NVIDIA на лидерскую позицию.
В обзорах высокопроизводительных видеокарт внимание прессы обычно сфокусировано на дорогих моделях с мощными системами охлаждения, эффектным дизайном и массой дополнительных возможностей. Но когда заходит речь о массовом железе, важнее изучить нижние позиции прайс-листа. Невысокое энергопотребление GeForce GTX 1660 позволяет изрядно упростить обвязку видеокарты, в то же время сохранив большой запас прочности для оверклокинга. До какой степени упрощение сохраняет разгонные возможности — изучим на примере Inno3D GeForce GTX 1660 Twin X2.
⇡#
**Технические характеристики, комплект поставки, цены**
В отличие от продукции более именитых производителей, каталог современных предложений Inno3D не отличается разнообразием, а GeForce GTX 1660 и GTX 1660 Ti и вовсе доступны лишь в виде моделей Twin X2. Под этой маркой Inno3D выпустила несколько ускорителей на всех графических процессорах архитектуры Turing — вплоть до GeForce RTX 2080 Ti. Каждый из них примечателен доступной ценой в своей рыночной нише и работает на строго референсных тактовых частотах. Соответственно, базовая частота GPU у Inno3D GeForce GTX 1660 Twin X2 равна 1530 МГц, а ориентировочное значение при типичной нагрузке (Boost Clock) составляет 1785 МГц. Впрочем, NVIDIA недооценивает потенциал своих видеокарт, ведь даже в самых требовательных играх устройства GeForce 10-й, 16-й и 20-й серий обычно разгоняются сильнее. Однако это мы точно выясним на стадии тестирования. Как и все варианты GeForce GTX 1660, плата Inno3D несет 6 Гбайт оперативной памяти GDDR5, которая опять-таки характеризуется референсной пропускной способностью 8 Гбит/с на контакт шины.
|Производитель
|NVIDIA
|Inno3D
|Модель
|GeForce GTX 1660
|GeForce GTX 1660 Twin X2
|Графический процессор
|Название
|TU116
|TU116
|Микроархитектура
|Turing
|Turing
|Техпроцесс, нм
|12 нм FFN
|12 нм FFN
|Число транзисторов, млн
|6 600
|6 600
|Тактовая частота, МГц: Base Clock / Boost Clock
|1530/1785
|1530/1785
|Число шейдерных ALU
|1408
|1408
|Число блоков наложения текстур
|88
|88
|Число ROP
|48
|48
|Число тензорных ядер
|Нет
|Нет
|Число RT-ядер
|Нет
|Нет
|Оперативная память
|Разрядность шины, бит
|192
|192
|Тип микросхем
|GDDR5 SDRAM
|GDDR5 SDRAM
|Тактовая частота, МГц (пропускная способность на контакт, Мбит/с)
|2000 (8000)
|2000 (8000)
|Объем, Мбайт
|6 144
|6 144
|Шина ввода/вывода
|PCI Express 3.0 x16
|PCI Express 3.0 x16
|Производительность
|Пиковая производительность FP32, GFLOPS (из расчета максимальной указанной частоты)
|5027
|5027
|Производительность FP32/FP64
|1/32
|1/32
|Производительность FP32/FP16
|2/1
|2/1
|Пропускная способность оперативной памяти, Гбайт/с
|192
|192
|Вывод изображения
|Интерфейсы вывода изображения
|DL DVI-D, DisplayPort 1.4a, HDMI 2.0b
|DL DVI-D, DisplayPort 1.4a, HDMI 2.0b
|TBP/TDP, Вт
|120
|120
|Розничная цена (США, без налога), $
|229 (рекомендованная)
|НД
|Розничная цена (Россия), руб.
|17 990 (рекомендованная)
|От 15 658 (market.yandex.ru)
На российском рынке NVIDIA изначально оценила GeForce GTX 1660 в 17 990 руб., но спустя месяц после выхода новинки цены ее различных модификаций отдалились в обе стороны от рекомендованного значения. «Премиальные» версии GTX 1660, по данным «Яндекс Маркета», достигают 20 240 руб., а самую «народную» модель можно купить всего за 15 975 руб. — это и есть Inno3D GeForce GTX 1660 Twin X2. А вот на зарубежных торговых площадках мы ее не обнаружили, так что импортерам-частникам придется рассматривать иные возможности сэкономить.
Несмотря на превосходное соотношение цены и характеристик, у Inno3D GeForce GTX 1660 Twin X2 есть достойные соперники в категории видеокарт дешевле $250. AMD встретила дебют «зеленых» новинок снижением цен на Radeon RX 580 и Radeon RX 590. Флагман ускорителей на чипах Polaris теперь доступен по цене от 16 261 руб., а Radeon RX 580 в конфигурации с 8 Гбайт RAM — от 12 517 руб. Эти значения вполне соответствуют тому, как распределились конкуренты в нашем первом обзоре GeForce GTX 1660. Однако AMD позволяет снизить расходы на апгрейд еще сильнее за счет моделей Radeon RX 580 с 4 Гбайт памяти, стоимость которых начинается с 10 579 руб.
Несмотря на дешевизну Inno3D GeForce GTX 1660 Twin X2, в комплектации видеокарты нашлось кое-что ценное — ключи к платным версиям тестовых пакетов 3DMark и VRMark. Но других аксессуаров, помимо диска с ПО, в коробке нет.
Экстерьер Inno3D GeForce GTX 1660 Twin X2 не нуждается в подробном описании. На вид видеокарта мало отличается от множества других бюджетных модификаций GeForce GTX 10-й и 16-й серий. Из-за скромных размеров можно решить, что она подходит под габариты систем форм-фактора Mini-ITX, но нет — устройство на 1,96 см длиннее положенных 17 см. Разумеется, тут нет никакой светодиодной подсветки и прочих необязательных украшений. Отсутствует даже защитная пластина на обратной стороне печатной платы.
Внутренности Inno3D GeForce GTX 1660 Twin X2 обдувают два вентилятора диаметром 72 мм. Из-за того, что производитель не стал растягивать кожух системы охлаждения за пределы габаритов PCB, как часто делают с компактными видеокартами, места для более широких крыльчаток уже не хватило. При температуре кристалла на границе 45 °С система охлаждения работает в странном полупассивном режиме: почти все время вентиляторы неподвижны, но раз в несколько секунд оживают, чтобы совершить несколько оборотов.
Благодаря низкому энергопотреблению (120 Вт по референсным спецификациям GeForce GTX 1660) графический процессор TU116 эффективно охлаждается компактным радиатором простой конструкции. Впрочем, инженеры Inno3D не пожалели средств на три тепловые трубки толщиной 4 мм, которые напрямую контактируют с кристаллом GPU. GIGABYTE, к примеру, в своих бюджетных версиях GeForce GTX 1660 и GTX 1660 Ti обошлась одной трубкой.
Поскольку чипы TU116 и TU106 взаимозаменяемы с точки зрения физического интерфейса, в основе массы вариантов GeForce GTX 1660, 1660 Ti, да и RTX 2060 с RTX 2070 лежат одинаковые печатные платы. Производители меняют только сам GPU, тип и количество чипов памяти, а также конфигурацию регулятора напряжения. Если судить по внешним признакам, все модели Inno3D Twin X2 вплоть до GeForce RTX 2070 тоже основаны на одной и той же PCB. Любопытно, что она несет маркировку NVIDIA: похоже, Inno3D закупает кристаллы Turing для этой серии устройств вместе с референсными платами.
На текстолите есть контактные площадки для компонентов шести фаз питания GPU и двух фаз питания микросхем RAM, но в GeForce GTX 1660 распаяны только четыре и одна фаза соответственно. Скромная конфигурация, но коль скоро GeForce GTX 1060 версии Founders Edition хватало в общей сложности четырех фаз, то и младшей модели на чипе TU116 должно быть вполне достаточно пяти. Благодаря родству с видеокартами серии GeForce RTX регулятор напряжения Inno3D GeForce GTX 1660 Twin X2 содержит полевые транзисторы со встроенным драйвером (так называемые DrMOS, или «силовые каскады» — power stages). По сравнению с дискретными парами «драйвер — транзистор» интегрированное решение обеспечивает повышенный КПД и позволяет ШИМ-контроллеру с высокой точностью контролировать напряжение на выходе.
Дополнительное питание поступает на видеокарту по единственному восьмиконтактному разъему, а набор внешних интерфейсов состоит из трех выходов DisplayPort и единственного HDMI. Судя по разводке контактных площадок, референсная печатная плата позволяет заменить два разъема DisplayPort колодкой DVI, что было бы вполне уместно для недорогого ускорителя, но Inno3D не воспользовалась этой возможностью.
⇡#
**Тестовый стенд, методика тестирования**
|Тестовый стенд
|CPU
|Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
|Материнская плата
|ASUS MAXIMUS XI APEX
|Оперативная память
|G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 Гбайт (3200 МГц, CL14)
|ПЗУ
|Intel SSD 760p, 1024 Гбайт
|Блок питания
|Corsair AX1200i, 1200 Вт
|Система охлаждения CPU
|Corsair Hydro Series H115i
|Корпус
|CoolerMaster Test Bench V1.0
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|ПО для GPU AMD
|Все видеокарты
|AMD Radeon Software Adrenalin 2019 Edition 19.4.1
|ПО для GPU NVIDIA
|Все видеокарты
|NVIDIA GeForce Game Ready Driver 418.81
|Синтетические тесты 3D-графики
|Тест
|API
|Разрешение
|Полноэкранное сглаживание
|3DMark Fire Strike 1.1
|DirectX 11 (feature level 11_0)
|1920 × 1080
|Выкл.
|3DMark Fire Strike 1.1 Extreme
|2560 × 1440
|3DMark Fire Strike 1.1 Ultra
|3840 × 2160
|3DMark Time Spy 1.1
|DirectX 12 (feature level 11_0)
|2560 × 1440
|3DMark Time Spy Extreme 1.1
|3840 × 2160
|Игровые тесты
|Игра (в порядке даты выхода)
|API
|Настройки, метод тестирования
|Полноэкранное сглаживание
|1920 × 1080 / 2560 × 1440
|Grand Theft Auto V
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|MSAA 4x + FXAA + Reflection MSAA 4x
|Ashes of the Singularity: Escalation
|Vulkan
|Встроенный бенчмарк. Макс. качество графики
|MSAA 4x + TAA 4x
|Total War: WARHAMMER II, встроенный бенчмарк
|DirectX 12
|Встроенный бенчмарк (Battle Benchmark). Макс. качество графики
|MSAA 4x
|Wolfenstein II: The New Colossus
|Vulkan
|OCAT, миссия Roswell. Макс. качество графики. Deferred Rendering, GPU Culling, Adaptive Shading — выкл.
|TSSAA (8TX)
|Final Fantasy XV Windows Edition
|DirectX 11
|Встроенный бенчмарк + OCAT. Макс. качество графики. GameWorks выкл., DLSS выкл.
|TAA
|Far Cry 5
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|TAA
|Strange Brigade
|Vulkan
|Встроенный бенчмарк. Макс. качество графики
|AA Ultra
|Shadow of the Tomb Raider
|DirectX 12
|Встроенный бенчмарк. Макс. качество графики
|SMAA 4x
|Assassin's Creed Odyssey
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|TAA High
|Battlefield V
|DirectX 12
|OCAT, миссия Liberte. Макс. качество графики. DXR выкл., DLSS выкл.
|TAA High
|Metro Exodus
|DirectX 12
|Встроенный бенчмарк. Макс. качество графики. DXR выкл., DLSS выкл., Shading Rate 100%
|TAA
|DiRT Rally 2.0
|DirectX 11
|Встроенный бенчмарк. Макс. качество графики
|MSAA 4x + TAA
|Tom Clancy's The Division 2
|DirectX 12
|Встроенный бенчмарк. Профиль качества графики Ultra
|TAA
В большинстве тестовых игр показатели средней и минимальной кадровых частот выводятся из массива времени рендеринга индивидуальных кадров, который записывает встроенный бенчмарк (или утилита OCAT, если его нет).
Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел выбирается значение, соответствующее 1-му процентилю распределения.
Исключением из этой методики являются игры DiRT Rally 2.0, Far Cry 5 и Wolfenstein II: The New Colossus. Встроенный бенчмарк DiRT Rally 2.0 не записывает время рендеринга отдельных кадров — файл с результатами содержит среднюю частоту смены кадров и минимальную, рассчитанную по максимальному времени кадра. Встроенный бенчмарк Far Cry 5 записывает количество кадров в отдельную секунду теста, поэтому среднее FPS рассчитывается исходя из этих чисел, а не по среднему времени рендеринга кадра. Для тестирования в Wolfenstein II мы используем OCAT, но в этой игре утилита не сохраняет журнал рендеринга отдельных кадров. Здесь в качестве минимального FPS используется число, которое OCAT выводит на экран, обратное 99-му процентилю времени кадра.
Мощность видеокарт регистрируется отдельно от CPU и прочих компонентов ПК с помощью амперметра MingHe VAC-1050A. Чтобы одновременно измерить ток, проходящий по разъемам дополнительного питания и слоту материнской платы, видеокарта подключается через жесткий райзер PCI Express x16, в котором линии питания разорваны и выведены на отдельный кабель.
В качестве тестовой нагрузки для тестов мощности и уровня шума используется игра Crysis 3 при разрешении 3840 × 2160 без полноэкранного сглаживания и максимальных параметрах качества графики, а также стресс-тест FurMark с наиболее агрессивными настройками (разрешение 3840 × 2160, MSAA 8x). Замеры всех параметров выполняются после прогрева видеокарты, когда температура GPU и тактовые частоты стабилизируются.
В тестировании производительности приняли участие следующие видеокарты:
⇡#
**Тактовые частоты, энергопотребление, температура, разгон**
Inno3D GeForce GTX 1660 Twin X2 является, по большому счету, референсной версией GTX 1660. Но если рассматривать работу GPU под нагрузкой, то все модели на чипе TU116, которые мы успели изучить (включая устройства с умеренным фабричным оверклокингом), автоматически разгоняются до приблизительно одних и тех же тактовых частот — для Inno3D GeForce GTX 1660 Twin X2 стабильным значением является 1871 МГц. Впрочем, нам еще не попадались «премиальные» модификации GeForce GTX 1660 и GTX 1660 Ti (насколько этот эпитет вообще уместен в отношении недорогих видеокарт) с мощной системой охлаждения, в которых алгоритм GPU Boost наверняка действует более агрессивно.
По энергоэффективности TU116 является безоговорочным лидером в своей категории цены и быстродействия. Inno3D GeForce GTX 1660 Twin X2 потребляет даже меньше энергии, чем GeForce GTX 1060, не говоря уже о Radeon RX 580, мощность которого под игровой нагрузкой почти вдвое выше, а у Radeon RX 590 — и подавно. Несмотря на это, экономия производителя на системе охлаждения дает о себе знать: по уровню шума GeForce GTX 1660 Twin X2 превосходит Radeon RX 580 с референсным центробежным кулером (а это, разумеется, не эталон тишины) и приближается к GeForce GTX 1070 Founders Edition.
|Рабочие параметры под нагрузкой (Crysis 3)
|Видеокарта
|Настройки
|Тактовая частота GPU, МГц
|Напряжение питания GPU, В
|Частота вращения вентиляторов, об/мин (% от макс.)
|Частота вращения вентиляторов 2, об/мин (% от макс.)
|Средн.
|Макс.
|Предел
|Средн.
|Макс.
|Предел
|Средн.
|Средн.
|Inno3D GeForce GTX 1660 Twin X2 (1530/8000 МГц, 6 Гбайт)
|1871
|1875
|1935
|1,026
|1,031
|1,044
|2026 (58%)
|НД
|Inno3D GeForce GTX 1660 Twin X2 (1730/9500 МГц, 6 Гбайт)
|+16% TDP
|2067
|2070
|2130
|1,038
|1,043
|1,044
|2344 (67%)
|НД
|GIGABYTE GeForce GTX 1660 Ti (1500/12000 МГц, 6 Гбайт)
|1870
|1905
|1980
|0,939
|0,975
|1,044
|1950 (64%)
|НД
|NVIDIA GeForce RTX 2060 FE (1365/14000 МГц, 6 Гбайт)
|1836
|1875
|1950
|0,991
|1,031
|1,044
|1661 (45%)
|1661 (45%)
|ASUS GeForce GTX 1060 OC (1506/9028 МГц, 6 Гбайт)
|1848
|1848
|1898
|1,050
|1,050
|1,062
|1431 (39%)
|НД
|NVIDIA GeForce GTX 1070 FE (1506/8008 МГц, 8 Гбайт)
|1775
|1823
|1911
|0,995
|1,043
|1,100
|1898 (47%)
|НД
|AMD Radeon RX 580 (1340/8000 МГц, 8 Гбайт)
|WattMan: Balanced
|1340
|1340
|1340
|1,072
|1,081
|1,150
|1714 (52%)
|НД
|SAPPHIRE NITRO+ Radeon RX 590 SE(1545/8000 МГц, 8 Гбайт)
|WattMan: Balanced, Silent UEFI
|1543
|1545
|1545
|1,140
|1,181
|1,150
|1252 (28%)
|НД
*Прим.:* * измерение всех параметров выполняется после прогрева GPU и стабилизации тактовых частот.*
Благодаря тому, что NVIDIA не сортирует чипы TU116 по частотному потенциалу, как это происходит со старшими процессорами архитектуры Turing, все образцы GeForce GTX 1660 имеют одинаковые шансы на успешный оверклокинг, а видеокарты с референсными характеристиками могут выиграть больше, чем предварительно разогнанные модели. И вправду наш экземпляр Inno3D GeForce GTX 1660 Twin X2 позволил сдвинуть базовую частоту GPU на 200 МГц — вплоть до 1730. При этом целесообразно увеличить резерв мощности со штатных 120 до 140 Вт, чтобы реальная частота GPU под нагрузкой закрепилась на уровне 2067 МГц (налицо прирост в 196 МГц по сравнению с настройками по умолчанию). Наверняка и это не предел для удачного кристалла TU116, ведь напряжение питания GPU изменилось совсем незначительно. Вот только прошивка ускорителей на чипах Turing пресекает любые попытки программного вольтмода, да и запас мощности Inno3D GeForce GTX 1660 Twin X2 в результате оверклокинга практически исчерпан.
На платах с графическим процессором TU116 отлично разгоняется не только GPU, но и чипы GDDR5. В данном случае пропускную способность RAM удалось поднять с 8 до 9,5 Гбит/с на контакт.
Энергопотребление разогнанного Inno3D GeForce GTX 1660 Twin X2 увеличилось на 13–15 Вт по сравнению с видеокартой, работающей на штатных частотах, — это лишняя нагрузка для и без того не самой тихой системы охлаждения, хотя температура GPU остается в пределах 71 °C.
Синтетические тесты 3DMark традиционно предпочитают архитектуру AMD GCN видеокартам NVIDIA, но чипы Turing более эффективны в бенчмарке Time Spy под Direct3D 12. В результате Inno3D GeForce GTX 1660 Twin X2 по средней разнице в баллах 3DMark стоит на одном уровне с Radeon RX 580 и уступил Radeon RX 590 лишь на 9 %.
В семействе видеокарт на чипах Turing GeForce GTX 1660 остается самым младшим устройством (пока NVIDIA еще не выпустила GeForce GTX 1650) — неудивительно, что оценки GTX 1660 Ti и RTX 2060 в 3DMark выше на 20 и 46 % соответственно. Но разгон позволяет сократить дистанцию между базовой версией GTX 1660 и модификацией Ti благодаря увеличению среднего балла на 14 %.
В тестах быстродействия настоящих игр преимущество архитектуры Turing перед конкурирующими предложениями AMD выражено еще сильнее, чем в «синтетике». Так, при разрешении 1080p Inno3D GeForce GTX 1660 Twin X2 не только на 13 % превосходит Radeon RX 580 по средней частоте смены кадров, но и опережает на 4 % Radeon RX 590. Впрочем, есть немало игр (Ashes of the Singularity, Far Cry 5, Tom Clancy’s The Division 2, Strange Brigade и Wolfenstein II), в которых Radeon RX 580 не уступает новому сопернику, а Radeon RX 590 уверенно лидирует.
Сравнительные результаты GeForce GTX 1660 и GTX 1060 варьируются не так сильно, и по итоговой оценке ускоритель Inno3D оказался на 12 % быстрее. Более мощные представители архитектуры Turing (GeForce GTX 1660 Ti и GeForce RTX 2060) даже в режиме 1080p превосходят GTX 1660 на 19 и 39 % соответственно, да и GeForce GTX 1070 имеет преимущество в 19 %. Но разгон Inno3D GeForce GTX 1660 Twin X2 увеличивает быстродействие на 16 % и таким образом сводит к минимуму разницу между двумя ближайшими моделями NVIDIA.
Современные игры при разрешении 1440p и максимальных настройках качества графики лежат на границе возможностей видеокарт средней ценовой категории. В таком режиме большинство тестов даже не позволяет GeForce GTX 1660 преодолеть отметку 60 FPS. Однако соотношение между результатами конкурирующих устройств принципиально не отличается от того, что показали испытания в 1080p.
Видеокартам AMD идет на пользу повышенная вычислительная нагрузка, но Inno3D GeForce GTX 1660 Twin X2 все еще превосходит Radeon RX 590 по средней частоте смены кадров в большинстве бенчмарков, за исключением нескольких игр, благоприятных для архитектуры GCN (Ashes of the Singularity, Far Cry 5, Tom Clancy’s The Division 2, Strange Brigade, Total War: WARHAMMER II и Wolfenstein II). По среднему значению быстродействие соперников практически одинаково, а вот Radeon RX 580 отстает от GeForce GTX 1660 на добрых 10 %.
Позиция GeForce GTX 1660 в сравнении с GeForce GTX 1060 не изменилась при переходе к тестам в режиме 1440p (GTX 1660 на 10 % быстрее), а вот другие ускорители NVIDIA, обладающие более широким конвейером рендеринга, продвинулись вперед. Так, GeForce GTX 1660 с индексом Ti обладает преимуществом в 16, GeForce RTX 2060 — в 43, а GeForce GTX 1070 — в 21 % по сравнению с младшей моделью на чипе TU116. Inno3D GeForce GTX 1660 Twin X2 спасает разгон, способный увеличить среднюю частоту смены кадров на 16 %.
⇡#
**Результаты всех игровых тестов и 3DMark**
|3DMark (Graphics Score)
|Разрешение
|Inno3D GeForce GTX 1660 Twin X2 (1530/8000 МГц, 6 Гбайт)
|Inno3D GeForce GTX 1660 Twin X2 (1730/9500 МГц, 6 Гбайт)
|GIGABYTE GeForce GTX 1660 Ti OC (1500/12000 МГц, 6 Гбайт)
|NVIDIA GeForce RTX 2060 FE (1365/14000 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1060 (1506/9028 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1070 (1506/8008 МГц, 8 Гбайт)
|AMD Radeon RX 580 (1340/8000 МГц, 8 Гбайт)
|AMD Radeon RX 590 (1545/8000 МГц, 8 Гбайт)
|Fire Strike
|1920 × 1080
|13828
|15786
|16 483
|19 921
|13 052
|18 076
|14 912
|16 547
|Fire Strike Extreme
|2560 × 1440
|6229
|7149
|7 484
|8 983
|6 145
|8 310
|6 522
|7 160
|Fire Strike Ultra
|3840 × 2160
|2697
|3066
|3 257
|4 187
|3 026
|4 154
|3 318
|3 624
|Time Spy
|2560 × 1440
|5324
|6082
|6 344
|7 486
|4 250
|5 815
|4 193
|4 793
|Time Spy Extreme
|3840 × 2160
|2362
|2725
|2 805
|3 405
|1 924
|2 720
|1 884
|2 072
|Макс.
|+15%
|+21%
|+55%
|+12%
|+54%
|+23%
|+34%
|Средн.
|+14%
|+20%
|+46%
|−7%
|+29%
|−1%
|+9%
|Мин.
|+14%
|+19%
|+41%
|−20%
|+9%
|−21%
|−12%
|1920 × 1080
|Полно-экранное сглажи-вание
|Inno3D GeForce GTX 1660 Twin X2 (1530/8000 МГц, 6 Гбайт)
|Inno3D GeForce GTX 1660 Twin X2 (1730/9500 МГц, 6 Гбайт)
|GIGABYTE GeForce GTX 1660 Ti OC (1500/12000 МГц, 6 Гбайт)
|NVIDIA GeForce RTX 2060 FE (1365/14000 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1060 (1506/9028 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1070 (1506/8008 МГц, 8 Гбайт)
|AMD Radeon RX 580 (1340/8000 МГц, 8 Гбайт)
|AMD Radeon RX 590 (1545/8000 МГц, 8 Гбайт)
|Ashes of the Singularity: Escalation
|MSAA 4x + TAA 4x
|19 / 28
|23 / 33
|22 / 34
|27 / 39
|19 / 27
|24 / 37
|19 / 28
|21 / 30
|Assassin's Creed Odyssey
|TAA High
|42 / 50
|47 / 54
|41 / 52
|47 / 60
|35 / 41
|42 / 51
|30 / 35
|34 / 42
|Battlefield V
|TAA High
|71 / 90
|83 / 102
|86 / 106
|102 / 121
|62 / 80
|86 / 106
|71 / 84
|77 / 88
|DiRT Rally 2.0
|MSAA 4x + TAA
|39 / 54
|43 / 61
|45 / 62
|52 / 74
|31 / 47
|45 / 62
|36 / 44
|40 / 49
|Far Cry 5
|TAA
|73 / 80
|85 / 94
|88 / 97
|97 / 112
|65 / 73
|86 / 94
|62 / 69
|71 / 80
|Final Fantasy XV Windows Edition
|TAA
|42 / 57
|49 / 67
|54 / 68
|60 / 80
|40 / 51
|52 / 68
|38 / 48
|8 / 47
|Grand Theft Auto V
|MSAA 4x + FXAA + Reflection MSAA 4x
|37 / 60
|42 / 69
|45 / 72
|49 / 81
|38 / 59
|50 / 76
|32 / 43
|35 / 49
|Metro Exodus
|TAA
|16 / 28
|19 / 33
|20 / 34
|24 / 40
|15 / 26
|20 / 36
|14 / 25
|15 / 27
|Shadow of the Tomb Raider
|SMAA 4x
|38 / 45
|44 / 54
|41 / 55
|50 / 64
|30 / 39
|41 / 52
|26 / 37
|30 / 41
|Strange Brigade
|AA Ultra
|72 / 87
|84 / 103
|87 / 107
|103 / 132
|64 / 78
|86 / 108
|65 / 90
|71 / 97
|Tom Clancy's The Division 2
|TAA
|56 / 63
|65 / 74
|66 / 75
|79 / 90
|48 / 55
|67 / 77
|51 / 61
|58 / 69
|Total War: WARHAMMER II
|MSAA 4x
|21 / 25
|24 / 29
|23 / 30
|29 / 36
|19 / 24
|23 / 31
|18 / 22
|21 / 24
|Wolfenstein II: The New Colossus
|TSSAA (8TX)
|93 / 109
|110 / 130
|112 / 131
|125 / 152
|74 / 86
|93 / 110
|88 / 108
|97 / 116
|Макс.
|+20%
|+23%
|+52%
|−2%
|+32%
|+3%
|+11%
|Средн.
|+16%
|+19%
|+39%
|−10%
|+19%
|−12%
|−3%
|Мин.
|+8%
|+4%
|+20%
|−21%
|+1%
|−30%
|−18%
|2560 × 1440
|Полно-экранное сглажи-вание
|Inno3D GeForce GTX 1660 Twin X2 (1530/8000 МГц, 6 Гбайт)
|Inno3D GeForce GTX 1660 Twin X2 (1730/9500 МГц, 6 Гбайт)
|GIGABYTE GeForce GTX 1660 Ti OC (1500/12000 МГц, 6 Гбайт)
|NVIDIA GeForce RTX 2060 FE (1365/14000 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1060 (1506/9028 МГц, 6 Гбайт)
|NVIDIA GeForce GTX 1070 (1506/8008 МГц, 8 Гбайт)
|AMD Radeon RX 580 (1340/8000 МГц, 8 Гбайт)
|AMD Radeon RX 590 (1545/8000 МГц, 8 Гбайт)
|Ashes of the Singularity: Escalation
|MSAA 4x + TAA 4x
|15 / 22
|17 / 26
|19 / 27
|21 / 32
|16 / 22
|19 / 29
|16 / 22
|17 / 24
|Assassin's Creed Odyssey
|TAA High
|33 / 37
|36 / 41
|37 / 44
|40 / 50
|28 / 32
|36 / 43
|26 / 30
|24 / 33
|Battlefield V
|TAA High
|53 / 67
|63 / 76
|65 / 80
|76 / 93
|44 / 60
|63 / 78
|51 / 60
|56 / 66
|DiRT Rally 2.0
|MSAA 4x + TAA
|31 / 40
|35 / 46
|37 / 47
|44 / 56
|25 / 34
|36 / 46
|28 / 33
|31 / 37
|Far Cry 5
|TAA
|50 / 56
|59 / 64
|59 / 67
|71 / 79
|44 / 49
|60 / 67
|44 / 50
|49 / 57
|Final Fantasy XV Windows Edition
|TAA
|29 / 39
|35 / 47
|38 / 49
|44 / 57
|28 / 36
|37 / 48
|26 / 34
|8 / 33
|Grand Theft Auto V
|MSAA 4x + FXAA + Reflection MSAA 4x
|26 / 41
|31 / 48
|33 / 51
|38 / 59
|27 / 40
|35 / 53
|23 / 31
|25 / 34
|Metro Exodus
|TAA
|13 / 23
|16 / 26
|17 / 27
|20 / 32
|12 / 20
|17 / 29
|12 / 20
|13 / 23
|Shadow of the Tomb Raider
|SMAA 4x
|24 / 29
|28 / 34
|29 / 35
|34 / 41
|20 / 25
|28 / 34
|18 / 25
|21 / 28
|Strange Brigade
|AA Ultra
|53 / 60
|61 / 70
|65 / 76
|76 / 90
|45 / 53
|62 / 73
|49 / 63
|54 / 68
|Tom Clancy's The Division 2
|TAA
|36 / 41
|42 / 47
|45 / 49
|52 / 59
|32 / 36
|44 / 51
|36 / 42
|41 / 47
|Total War: WARHAMMER II
|MSAA 4x
|13 / 16
|15 / 19
|17 / 20
|20 / 24
|13 / 16
|18 / 21
|12 / 14
|13 / 16
|Wolfenstein II: The New Colossus
|TSSAA (8TX)
|60 / 74
|70 / 88
|74 / 89
|89 / 105
|51 / 59
|69 / 78
|60 / 71
|66 / 77
|Макс.
|+21%
|+27%
|+50%
|+0%
|+32%
|+5%
|+15%
|Средн.
|+16%
|+21%
|+43%
|−10%
|+21%
|−10%
|−1%
|Мин.
|+11%
|+17%
|+35%
|−20%
|+5%
|−24%
|−17%
Когда мы готовились к первоначальному обзору GeForce GTX 1660, видеокарта Inno3D была одним из кандидатов на роль того устройства, которое представит на суд общественности свежую модель NVIDIA. Но получилось так, что GIGABYTE GeForce GTX 1660 OC прибыла в лабораторию 3DNews первой, а Inno3D GeForce GTX 1660 Twin X осталась напоследок. А жаль, ведь плата Inno3D полностью соответствует эталонным спецификациям GeForce GTX 1660 и, таким образом, обеспечивает чистоту эксперимента.
Однако испытания на референсных частотах не изменили положение новинки среди других видеокарт средней ценовой категории. GeForce GTX 1660 уверенно опережает Radeon RX 580 (на 10–13 % средней кадровой частоты) в большинстве тестовых игр и даже не уступает Radeon RX 590, хотя последний более чем вдвое (!) превосходит продукт NVIDIA по энергопотреблению. Впрочем, в последнее время AMD привлекла на свою сторону немало игровых разработчиков, и Radeon RX 580 успешно держит оборону в нескольких проектах. Карта AMD сейчас продается за меньшие деньги даже в конфигурации с 8 Гбайт RAM, так что GeForce GTX 1660 не стал безальтернативным выбором в ценовой категории ниже $250. Кроме того, у GTX 1660 и GTX 1660 Ti всего лишь 6 Гбайт оперативной памяти, и это может ограничить полезную продолжительность жизни устройства.
Перед аналогами из предыдущего поколения «зеленых» ускорителей младшая видеокарта на графическом процессоре TU116 не имеет особенных преимуществ. GeForce GTX 1660 лишь на 10–12 % FPS превосходит GeForce GTX 1060 с 6 Гбайт RAM и в то же время уступает GeForce GTX 1070 на 16–18 %. Справедливости ради заметим, что GTX 1660 и GTX 1660 Ti более эффективны в гибридном рендеринге с трассировкой лучей (особенно по сравнению с GTX 1060), которая стала доступна чипам Pascal и TU116 в последнем обновлении драйвера. Но первые практические тесты в Battlefield V, Metro Exodus и Shadow of the Tomb Raider уже поставили крест на амбициях любых видеокарт в играх с DXR, за исключением разве что GeForce GTX 1080, GTX 1080 Ti и серии GeForce RTX.
Однако вернемся к устройству Inno3D, которому посвящен сегодняшний обзор. В этой видеокарте подкупает (в буквальном смысле) то, что это одна из самых простых и, соответственно, доступных версий GeForce GTX 1660 в российской рознице. Можно подумать, что компактный кулер и упрощенная система питания помешают успешному разгону TU116. Но вовсе нет, наш образец Inno3D GeForce GTX 1660 Twin X допускает оверклокинг GPU почти на 200 МГц, а чипов RAM — на 1,5 Гбит/с сверх референсных спецификаций. После разгона владелец ускорителя обнаружит, что игры стали работать на 16 % быстрее. Единственная слабость карты Inno3D заключается в не самой тихой системе охлаждения, но и чрезмерно шумной ее все-таки не назовешь. |
986,155 | Dreams — игра, в которой действительно можно все. Впечатления от ранней версии | |
Жанр |Приключение
|
Издатель |Sony Interactive Entertainment
|
Разработчик |Media Molecule
|
Дата выхода |16 апреля 2019 года
|
Возрастной ценз |от 7 лет
|
Платформы |PlayStation 4
|
Официальный сайт *Игра протестирована на * *PlayStation* * 4*
Говоря о главных и самых ожидаемых эксклюзивах для PlayStation 4, многие почему-то забывают о Dreams, новом проекте создателей LittleBigPlanet. Хотя понять публику очень легко — все-таки игра была анонсирована еще в 2013 году, и за шесть лет о ней редко вспоминали на больших выставках. Зато разработчики регулярно проводили прямые трансляции, публиковали ролики и продолжали дразнить фанатов богатыми возможностями встроенного редактора, позволяющего создать в Dreams практически все, что захочется.
После успешной «беты» студия решила открыть доступ к игре куда большему числу людей и разместила в магазине PlayStation раннюю версию. Она продается за 1 799 руб. и, по большому счету, представляет собой более-менее завершенный продукт. В этой версии нет одиночной кампании, как в LittleBigPlanet, и отсутствует поддержка шлема PlayStation VR. Зато есть весь инструментарий для творчества, обучающие видеоролики, несколько созданных разработчиками игр и все, что обычные пользователи успели придумать за время бета-тестирования.
Создавать в Dreams действительно можно все что угодно. Лепить скульптуры, как в музеях, и затем позволить остальным рассматривать их со всех сторон. Сооружать здания и воссоздавать архитектурные достопримечательности. Рисовать картины, моделировать людей и вымышленных существ. Редактор ни в чем вас не ограничивает: можно взять фигурку человечка, изменить ее размеры, нацепить одежду, подправить анимацию и сделать собственный вариант какой-нибудь сцены из известного фильма.
Но главное —это, конечно, игры. Здесь ограничений тоже мало — достаточно хотя бы взглянуть на то, что создали сами сотрудники Media Molecule. Есть и платформер, где нужно как можно скорее преодолеть препятствия, и грустная мини-история о монстре, с которым никто не хочет обниматься. Тут же некое подобие футбола с поддержкой локального кооператива — кто первым забьет три мяча в ворота соперника, тот победил. А в конце списка находятся shoot 'em up в духе Resogun и экшен с космическими кораблями, напоминающий один из мультиплеерных режимов в Star Wars Battlefront II.
Еще большее разнообразие царит в разделе игр, придуманных обычными пользователями. К счастью, все, что они сотворили во время последнего тестирования, отныне доступно всем желающим. А вот за то, что работы перенесутся в финальную версию игры, Media Molecule ручаться не может. Авторы предупреждают о возможной несовместимости полной версии с творениями из ранней, но есть подозрение, что на самом деле ничего плохого не случится. Все-таки столь крупная коллекция в будущем сможет привлечь внимание покупателей — они придут «на все готовое» и получат доступ к гигантской библиотеке работ.
О возможностях редактора можно рассказать на примере одной из «крупных» игр, созданных еще во время «беты». Она называется Slayer Scrolls и повествует о наемнике, который в начале прохождения появляется в таверне и берет контракт на убийство. С владельцем таверны можно поговорить на разные темы — как только реплика собеседника заканчивается, появляется выбор ответа, как в ролевых играх. Мы берем контракт, покидаем здание и прогуливаемся по деревушке, направляясь к воротам.
После этого игрок быстро переносится в другую локацию и встречает у подножия горы гнома. Он настроен агрессивно и готов нас атаковать, но этого можно избежать — в диалоге предложены аж четыре варианта ответа. Конечно, глубокой ролевой системы тут нет (пока что), но в половине случаев гном просто отойдет в сторону и согласится, что ссориться вам ни к чему. То есть как минимум такая нелинейность в созданных в Dreams играх возможна.
Потом мы сражаемся с драконом, контракт на убийство которого получили в таверне. Запас его жизней показан в верхней части экрана — при необходимости можно добавить такую опцию, когда создаешь собственную игру. Одолев огнедышащего монстра, мы возвращаемся в деревню, но нам там не рады. Впустить нас соглашаются только в том случае, если мы выполним пять заданий местных жителей. Наверху написано, сколько поручений завершено, у каждого квестодателя над головой висит соответствующий значок, и все готовы поболтать на разные темы.
Slayer Scrolls слеплена буквально на бегу, поэтому она неряшливая, косая и кривая. Модельки персонажей сделаны впопыхах, их лица пугают, да и озвучивать героев автор не стал. Протагонист — обычная стандартная фигурка с тощими ногами и без одежды. Боевая система не доведена до ума, а камера не всегда адекватна. Но тот факт, что «скелет» игры удалось создать за очень короткий срок, не перестает впечатлять. К релизу полной версии тут будут такие масштабные вещи, какие даже представить трудно.
В постоянно растущем списке работ немало интересного. Например, хоррор, где вы бродите по темным коридорам заброшенной лаборатории и постоянно видите галлюцинации, а потом спасаетесь от монстра. Или путешествие по космической станции в компании общительного робота-компаньона. Не говоря уже о «ремейках» P.T., «Зельды» и других хитов. Есть даже воссозданная центральная локация из Super Mario 64, где сам Марио поднимает в прыжке руку, — если сильно захотеть, такие детали можно добавить в редакторе. А главное — все эти игры моментально запускаются, загружать и ждать не требуется.
Чтобы быстро ввести пользователей в курс дела, разработчики приготовили несколько обучающих курсов, где во всех подробностях (и с повторами, для закрепления знаний) объясняют основные механики. Управление камерой, создание предметов, перемещение, окрашивание, удаление. Потом — создание контрольных точек, таймеров и других основ разнообразных игр. Эксперименты с физикой, логикой, анимацией, написанием музыки (да, можно и этим заниматься), рисованием — чего тут только нет!
Знания поданы в доступной форме, но абсолютно все Media Molecule, конечно, разъяснить внутри игры не может. Здесь огромное множество всевозможных инструментов — даже обычные фигурки вроде куба и шара можно клонировать, растягивать, объединять, присоединять к ним ноги и волосы, прописывать пошагово анимацию — как она будет меняться при беге и насколько сильно будут развеваться на ветру волосы. Поэтому творцам желательно смотреть многочисленные трансляции разработчиков, где они отвечают на популярные вопросы и демонстрируют примеры. Да и среди обычных игроков уже есть гуру, которые охотно делятся находками с другими на YouTube, Reddit и форуме.
Удобно и то, что все творения можно выкладывать в общий доступ, позволяя остальным использовать их в своих работах. К примеру, вы научились писать музыку, но не умеете моделировать — в таком случае все фигурки вы можете брать из всемирной библиотеки Dreams, а собственные композиции выкладывать на всеобщее обозрение. Уже сейчас, если набрать в поиске snowman или dragon, удастся найти множество снеговиков и драконов — одни качественные, другие совсем смешные, но удобная система оценок позволит быстро вывести в топ отличные творения. При этом ваше авторство сохранится — у множества игр указано несколько авторов, поскольку в них использованы «кирпичики» от разных участников сообщества.
Наверняка у многих может возникнуть вопрос: а найдется ли так много умельцев среди покупателей Dreams, что весь этот инструментарий действительно окажется полезен? Не получится ли так, что аудитория быстро потеряет интерес и чего-то действительно выдающегося, созданного на этой платформе, мы так и не увидим? Ведь даже если в финальной версии будет продолжительная кампания, часов на 15, что делать дальше тем, кто бесконечно далек от творчества и хочет просто развлечься?
*******
Благодаря тому, насколько в Dreams все удобно, беспокоиться об этом вряд ли придется. В LittleBigPlanet и Super Mario Maker до сих пор создаются прекрасные вещи, и выход игры в раннем доступе — едва ли не гениальное решение, ведь у желающих опробовать редактор будет достаточно времени, чтобы реализовать свои идеи до полноценного релиза. Dreams — это движок, редактор, инструмент для рисования и создания музыки, а также крупная библиотека моделей и звуков в одном флаконе. И все это доступно при наличии лишь игры, консоли и одного геймпада (если нужно печатать много текста для диалогов, то можно подключить и клавиатуру). Уже сейчас, когда наблюдаешь за обсуждениями и видишь, что удается сделать фанатам и как они воплощают в жизнь свои задумки, от безграничных возможностей Dreams захватывает дух. Творческих мастерских подобного размаха на рынке еще не было.
**Видео:** |
986,162 | Обзор ASUS ROG MAXIMUS XI GENE: Micro-ATX вкрутую | Наш сайт — один из немногих онлайн-ресурсов в русскоязычном сегменте, который все еще уделяет должное внимание материнским платам и тестирует современные устройства всех присутствующих на нашем рынке производителей. Однако, зайдя в раздел «Материнские платы» 3DNews, мы увидим, что последний раз обзор системной платы форм-фактора mATX, которую можно использовать для сборки по-настоящему мощного игрового ПК, выходил в начале 2017 года. Такой платы, чтобы и с разгоном было все в порядке, и с надежностью, и с функциональностью. В основном, если речь идет про обзоры, в тестовой лаборатории гостят ATX- и mini-ITX-решения — таковы современные тенденции. А между тем в продаже есть Micro-ATX-корпуса, которые вполне подойдут для решения обозначенных задач — в них грамотно организовано охлаждение и они способны вместить мощные комплектующие. Дело, получается, за малым: нужна плата — и одним из немногих вариантов станет ASUS ROG MAXIMUS XI GENE. Обо всех плюсах и минусах устройства читайте в этом обзоре.
⇡#Технические характеристики и упаковка
В народе платы серии MAXIMUS GENE давно прозвали «Женьком». Основные характеристики 11-й версии «Женька», поддерживающей процессоры Coffee Lake (Refresh), приведены в таблице ниже.
|
ASUS ROG MAXIMUS XI GENE
|
Поддерживаемые процессоры |Процессоры Intel 9-го и 8-го поколений (Core, Pentium Gold и Celeron) для платформы LGA1151-v2
|
Чипсет |Intel Z390 Express
|
Подсистема памяти |2 × DIMM, до 64 Гбайт DDR4-2133-4700 (OC)
|
Слоты расширения |1 × PCI Express x16
1 × PCI Express x4
|
Интерфейсы накопителей |2 × M.2 (Socket 3, 2242/2260/2280) с поддержкой PCI Express x4
1 × DIMM.2 с поддержкой PCI Express x8
4 × SATA 6 Гбит/с
|RAID 0, 1, 10
|
Локальная сеть |Intel I219V, 10/100/1000 Мбит/с
|
Беспроводная сеть |Intel Wireless-AC 9560
|
Аудиоподсистема |ROG SupremeFX (S1220A) 7.1 HD
|
Интерфейсы на задней панели |1 × PS/2
1 × HDMI
1 × RJ-45
1 × оптический S/PDIF
3 × USB 3.1 Gen2 Type A
1 × USB 3.1 Gen2 Type C
6 × USB 3.1 Gen1 Type A
2 × USB 2.0 Type A
5 × аудио 3,5 мм
|
Форм-фактор |mATX
|
Цена |23 000 рублей
Устройство упаковано в небольшую, но красочную картонную коробку. Помимо платы, в ней нашлось много аксессуаров — как полезных, так и не очень:
ASUS ROG MAXIMUS XI GENE создана на базе полноценного форм-фактора mATX, у которого каждая сторона печатной платы имеет длину 244 мм. Мы уделяем этому внимание потому, что бюджетном сегменте нередко встречаются устройства, которые обладают еще более урезанными печатными платами, приближающимися по размерам скорее к формату mini-ITX.
Теоретически любая плата форм-фактора mATX позволяет распаять сразу четыре слота расширения (против семи разъемов у стандарта ATX). Однако ASUS ROG MAXIMUS XI GENE включает всего два порта, один из которых — PEG, он же PCI Express x16 3.0. Этот разъем дополнительно армирован. Импровизированный металлический каркас под названием SafeSlot, по данным ASUS, увеличивает прочность порта в 1,8 раза при нагрузке на излом и в 1,6 раза при нагрузке на выдергивание. С учетом того, что «Женя» вполне реально может стать основой для какого-нибудь бенч-стенда, такое укрепление PEG-порта явно будет не лишним, ведь иногда за день приходится переключать видеокарты по 10 раз и больше.
Ближним к процессорному разъему является слот PCI Express x4 — это четыре линии от чипсета, соответствующие стандарту 3.0. Разъем не имеет защелки, поэтому в него может быть установлено что угодно — хоть видеокарта. Однако такие технологии, как AMD CrossFire и NVIDIA SLI, рассматриваемая плата не поддерживает, так что ставить сюда графическую карту нет смысла.
То, что PCI Express x4 распаян, так сказать, первым — это хорошо. Данный факт, с одной стороны, означает, что мы можем использовать в системе громадный суперкулер. Так, ни Thermalright Archon, ни Noctua NH-D15 не перекрывают основной PEG-порт (как, впрочем, и PCI Express x4).
Ахиллесовой пятой ASUS ROG MAXIMUS XI GENE считается близкое расположение двух DIMM-разъемов к процессорному гнезду LGA1151-v2. Расстояние от центра сокета до первого слота составляет всего (!) 45 мм. Это значит, что большинство башенных кулеров будет перекрывать порты DIMM, необходимые для установки оперативной памяти. Плата поддерживает установку сверхбыстрых модулей стандарта DDR4, а это значит, что в системе могут использоваться комплекты ОЗУ с очень большими радиаторами, которые тем более не уживутся с суперкулерами.
Очевидно, что ASUS ROG MAXIMUS XI GENE «заточена» под использование необслуживаемой жидкостной системы охлаждения, однако и здесь нас настигают проблемы. Так, водоблок «водянки» NZXT Kraken X62, используемой в стенде, тоже перекрыл слот DIMM — потому что фитинги труб у этой СО расположены справа. В итоге пришлось разворачивать водоблок «Кракена» на 90 градусов, а это, уважаемые читатели, —
*колхоз*, ведь «водянка» имеет подсвечиваемый логотип, который подразумевает вполне определенное расположение (хотя подсветку можно отключить в ПО охлаждающего устройства). Так что и здесь необходимо ответственно подойти к выбору водяного охлаждения. Например, с Cryorig A80 у вас таких проблем не возникнет.
Кстати, к количеству DIMM-слотов у меня претензий нет. ASUS ROG MAXIMUS XI GENE — это устройство, которое будет использоваться вместе с дорогущими комплектующими, поэтому с очень большой вероятностью в систему установят двухканальный комплект на 32 Гбайт. Установят — и забудут про нехватку ОЗУ ближайшие много лет.
Слоты DIMM распаяны так близко к процессорному гнезду из-за попытки инженеров ASUS впихнуть следом еще три разъема. Сразу же за портами под ОЗУ идут два M.2-слота — они оснащены общей металлической заглушкой, играющей одновременно и роль пассивного охлаждения. А за ними — разъем DIMM.2 для установки специальной карты расширения, который прочно закрепился в топовых платах серии MAXIMUS. Подробнее о нем — чуть ниже.
Порты M.2 вместе позволяют установить два твердотельных накопителя форм-факторов 2242, 2260 и 2280 — при этом каждый из разъемом работает только в режиме PCI Express x4 3.0 (линии — чипсетные). Они накрыты большим алюминиевым радиатором. Его, кстати, можно снять, только если в слот PCI Express x16 не установлена видеокарта. Для этого необходимо открутить два винта.
Задним умом, как известно, мы все сильны. Будь я инженером ASUS, то слоты DIMM отодвинул бы на место под M.2-накопители, а сами слоты для SSD в ROG MAXIMUS XI GENE разделил: один установил бы над PCI Express x4 или справа от него, переделав чипсетный радиатор и переместив слот для батарейки; второй M.2 сделал бы вертикальным. Собственно, так это реализовано, например, в ASUS Prime X299-Deluxe. Да, получилось бы не так красиво, зато, на мой взгляд, более практично.
А еще на плате подсвечиваются вся правая сторона и большой значок ROG на пластиковой заглушке I/O-панели. Также ASUS ROG MAXIMUS XI GENE оснащена двумя 4-контактными разъемами для подключения светодиодных лент и другой RGB-периферии.
В слот DIMM.2 устанавливается фирменная плата ROG DIMM.2. Впервые такая конструктивная особенность «республиканских» материнских плат появилась у ASUS Maximus IX Apex, которая вышла еще в 2017 году. К слоту подведено восемь линий PCI Express 3.0 от процессора. Следовательно, если мы используем его по назначению, то единственный PEG-порт устройства автоматически работает в режиме x8.
Дизайн карты DIMM.2 вновь изменился, и новый вариант предполагает пассивное охлаждение для SSD. Сама плата позволяет установить два M.2-накопителя длиной до 110 мм каждый.
Из-за такой конфигурации M.2-портов, в частности, на плате осталось всего четыре разъема SATA 6 Гбит/с. Но игровому ПК такого количества колодок будет вполне достаточно.
ASUS ROG MAXIMUS XI GENE оснащена сразу семью 4-контактными коннекторами, к которым можно подключить вентиляторы. Для mATX-платы — это отличный показатель! При этом часть коннекторов (пять) выделены черным — они позволяют регулировать частоту вращения не только «карлсонов» с ШИМ. Следовательно, нет никакой необходимости использовать дополнительные устройства наподобие реобаса или же подбирать корпус со встроенным контроллером для вентиляторов. Красота! Оставшиеся два разъема — белые, они не могут понизить частоту вращения. На них можно «повесить», например, вентиляторы с изначально малыми скоростями.
Расположены 4-штырьковые разъемы в целом удачно. Допустим, мы используем в системе небольшой Tower-корпус и двухсекционную СЖО. Помпа и вентиляторы «водянки» подключаются к верхнему ряду коннекторов. Корпусная крыльчатка, расположенная на задней стенке, — к разъему возле слота PCI Express x4, а передний корпусной вентилятор — к порту W_PUMP, расположенному снизу и развернутому на 90 градусов. Этот порт пригодится и тем, кто будет собирать кастомную СЖО вместе с ASUS ROG MAXIMUS XI GENE — резервуар с помпой обычно крепится в нижней части Tower-корпуса.
Да, все разъемы, расположенные в нижней части печатной платы, развернуты на 90 градусов. Так сделано специально, ведь видеокарта с трехслотовым кулером попросту перекроет эту область материнки. Из интересных внутренних портов отмечу наличие W_IN/OUT, W_Flow — эти коннекторы отслеживают температуру хладагента и скорость его потока в жидкостной системе охлаждения. А еще у платы есть разъем Node, необходимый для подключения совместимого блока питания. Если вы это сделаете, то сможете контролировать скорость вращения вентилятора блока питания, а также следить за его входными и выходными напряжениями. Список совместимого оборудования можно найти здесь.
Панель ввода-вывода платы оснащена встроенной заглушкой. Она достаточно плотно упакована различными портами — помимо пяти аналоговых звуковых гнезд и оптического S/P-DIF-выхода, на ней можно обнаружить дисплейный выход HDMI, комбинированный порт PS/2 (все еще нужен при экстремальном разгоне, так как контроллер USB в стрессовых условиях может «отвалиться»), набор USB-портов, включая новомодный Type-C, гигабитную сеть и даже две кнопки: ClearCMOS и USB BIOS Flashback.
Проводное сетевое подключение создается при помощи контроллера Intel I219-V, а беспроводное — за счет Wireless-AC 9560, который, помимо стандартов Wi-Fi 802.11 a/b/g/n/ac с пропускной способностью до 1733 Мбит/с, поддерживает еще и Bluetooth 5.0.
За звук в ASUS ROG MAXIMUS XI GENE, как и во многих других ROG-платах, отвечает аудиокодек Supreme FX, в основе которого лежит хорошо знакомый чип Realtek ALC1220A. Производитель утверждает, что ему достаются «эксклюзивные версии» этой микросхемы, поэтому в названии присутствует вторая буква А. По сравнению со «стандартным» Realtek ALC1220 соотношение «сигнал — шум» у «элитных» выше — 113 против 108 дБ. Традиционно для дорогих плат в состав аудиотракта включены высококачественные конденсаторы Nichicon и операционные усилители RC4580 и OPA1688 производства Texas Instruments. Сам аудиочип экранирован, а все элементы звуковой системы отделены от остальных компонентов платы полосой текстолита, которая не проводит ток.
Все платы серии MAXIMUS подходят в том числе и для разгона, а ROG MAXIMUS XI GENE — и для экстремального разгона. Поэтому на плате есть сразу несколько оверклокерских «улучшайзеров», облегчающих жизнь юным и не очень юным энтузиастам. Кнопки включения и перезагрузки, а также индикатор POST-сигналов заметить нетрудно. А еще в правой части печатной платы есть индикаторы QLED, которые наглядно демонстрируют, на каком этапе проходит загрузка компьютера. Также наличествуют кнопки ReTry (моментально перезагружает систему) и Safe Boot (запускает стенд с безопасными настройками). Добавим к этому переключатели MemOK!, Pause (компьютер ставится на паузу, чтобы пользователь мог изменить его параметры в процессе выполнения бенчмарка) и Slow Mode (моментальный сброс множителя центрального процессора до 8х, чтобы обеспечить прохождение компьютером особо тяжелых тестов). Наконец, в нижней части устройства расположена контактная дорожка ProbeIt, позволяющая при помощи мультиметра измерить точные показатели основных напряжений системы. Расположена она, правда, очень неудачно. При использовании видеокарты с трехслотовым кулером к ней не подобраться (или же подобраться, но тогда придется поработать паяльником). Да и вообще работать щупом рядом с вращающимся вентилятором 3D-ускорителя — так себе занятие.
Питаниe цeнтрального процeссора осущeствляeтся при помощи двух 8-контактных коннeкторов. Нe забывайтe, что блоки питания с таким набором кабeлeй встрeчаются нe очeнь часто, и в основном рeчь идeт о мощных устройствах — ватт на 700 и большe. Впрочeм, дополнитeльноe питаниe процeссору нeобходимо только в экстрeмальных случаях.
В основе конвертера питания ASUS ROG MAXIMUS XI GENE лежит ШИМ-контроллер ASP1405I. Может показаться, что плата оснащена 12 фазами, но это не так. Каждый канал, отвечающий за работу ЦП, оснащен двумя катушками индуктивности и двумя сборками IR3555. Еще две одинарные фазы «присматривают» за iGPU. Выглядит конвертер питания очень даже мощно.
За охлаждение полевых транзисторов отвечает массив из пары алюминиевых радиаторов среднего размера, объединенных, впрочем, медной теплотрубкой. О том, насколько эффективно работает система охлаждения VRM-зоны в разгоне, я расскажу далее.
Материнские платы ASUS — частые гости в нашей тестовой лаборатории, поэтому возможности UEFI BIOS этих устройств мы изучили уже вдоль и поперек. Собственно говоря, именно поэтому и постоянные читатели 3DNews тоже давно хорошо знакомы с возможностями прошивок ASUS. Ну а процессоры Coffee Lake Refresh в плане разгона не привносят никаких изменений.
Так, BIOS ASUS ROG MAXIMUS XI GENE мало чем отличается от BIOS ASUS ROG STRIX Z390-E GAMING. В прошивках матплат ASUS мне больше всего нравится то, что производитель не сильно урезает функции плат — в том числе и оверклокерские. Именно поэтому материнские платы от этого тайваньского производителя подойдут тем пользователям, которые не прочь поэкспериментировать со своим железом.
Основные опции, необходимые для разгона процессора и памяти, расположены в меню Ai Tweaker. Самое главное, что UEFI BIOS обозреваемой платы обладает всем необходимым для ручного разгона ЦП и ОЗУ. В таблице ниже представлены все возможные напряжения, доступные для ручной регулировки. Список «крутилок» просто поражает. Еще раз: ASUS ROG MAXIMUS XI GENE отлично подходит для экстремального разгона железа.
|
Мин/макс значение, В |
Шаг, В
|
CPU Core/Cache Voltage |0,6/1,7
|0,005
|
Core PLL Voltage |0,7/2,4
|0,00625
|
DRAM Voltage |1/2
|0,005
|
CPU VCCIO Voltage |0,9/1,8
|0,00625
|
CPU System Agent Voltage |0,7/1,8
|0,00625
|
PLL Termination Voltage |0,36/2,27
|0,01
|
PCH Core Voltage |0,9/1,8
|0,01
|
CPU Standby Voltage |0,8/1,8
|0,01
|
Internal PLL Voltage |0,9/1,845
|0,015
|
GT PLL Voltage |0,9/1,845
|0,015
|
Ring PLL Voltage |0,9/1,845
|0,015
|
System Agent PLL Voltage |0,9/1,845
|0,015
|
Memory Controller PLL Voltage |0,9/1,845
|0,015
|
Eventual CPU Standby Voltage |0,8/2,1
|0,01
|
Eventual PLL Termination Voltage |0,36/2,27
|0,01
|
Eventual DMI Voltage |0,3/1,9
|0,00625
|
VPPDDR Voltage |2,1/3,135
|0,005
|
DMI Voltage |0,3/1,9
|0,00625
|
DMI Boot Voltage |0,3/1,9
|0,00625
|
Core PLL Boot Voltage |0,7/1,6
|0,00625
|
CPU VCCIO Boot Voltage |0,9/1,8
|0,0125
|
CPU Standby Boot Voltage |0,7/2,2
|0,01
|
CPU System Agent Boot Voltage |0,7/1,8
|0,00625
|
PLL Termination Boot Voltage |0,9/1,8
|0,00625
|
DRAM REF Voltage on CHA/CHB |0,395/0,63
|0,005
|
DRAM VTT Voltage |0,5/1,3
|0,00625
|
CPU Core/Cache Boot Voltage |0,6/1,7
|0,015
|
CPU Load-line Calibration (уровни) |8
|1
Напряжение ядер центрального процессора изменяется в трех режимах: в явном, а также в режимах Offset и Adaptive. Во втором случае мы можем менять разность потенциалов в диапазоне от -0,635 до +0,635 В с шагом 0,005 В. Адаптивный режим представляет собой симбиоз явной настройки параметра VCore и режима Offset. Кроме того, BIOS платы имеет восемь уровней Load-Line Calibration.
В общем, у ASUS ROG MAXIMUS XI GENE есть все для того, чтобы вдоволь наэкспериментироваться с разгоном процессора и оперативной памяти, так сказать, в домашних условиях. Например, присутствует подраздел Tweaker's Paradise, который открывает доступ к тонким настройкам BCLK и DRAM.
Плата насчитывает два температурных датчика, то есть в BIOS или при помощи фирменного ПО ASUS мы можем контролировать температуры процессора, материнской платы (датчик расположен над слотом PCI Express x16) и PCH. Разъем T_sensor находится рядом с дорожкой ProbeIt. К сожалению, термопара в комплект не входит.
Страница Advanced отвечает за конфигурацию аппаратных ресурсов платы. В разделе Monitoring отображены показатели датчиков температур, напряжений, а также всех подключенных к плате вентиляторов. Вкладка Boot позволяет сконфигурировать загрузочные устройства и задать другие параметры, касающиеся старта системы. Наконец, меню Tool дает доступ к сохраненным пользовательским профилям настроек UEFI BIOS, к функции Secure Erase, которая стирает всю информацию с SSD, а также к вкладкам с подробной информацией об установленных в плате модулях оперативной памяти и о режимах работы имеющихся видеокарт.
UEFI BIOS обычных материнских плат ASUS на базе чипсета Z370 Express оснащен функцией авторазгона EZ Tuning Wizard. В прошивке ASUS ROG MAXIMUS XI GENE используется другая опция — AI OC Guide. Она изучает возможности системы охлаждения и самого процессора, а затем самостоятельно разгоняет чип, а также активирует XMP-профиль оперативной памяти. При ее активации 8-ядерный Core i9-9900K был разогнан до частоты 5 ГГц при использовании AVX-инструкций и до 5,1 ГГц в приложениях, где векторный набор команд не задействован. Что ж, уже на третьей минуте после запуска программы LinX 0.9.1 система с такими настройками выдала BSoD. Мы в очередной раз убеждаемся в том, что лучше разгонять железо самому, а не полагаться на «умные» алгоритмы.
Прошивка платы хранит профили разгона процессора, полученные известными оверклокерами der8auer и slamms, но «развлекаться» с ними я не стал по ранее описанной причине. Буду разгонять Core i9-9900K сам!
Больше скриншотов UEFI BIOS материнской платы ASUS ROG MAXIMUS XI GENE вы найдете в галерее ниже.
Материнские платы на базе чипсета Z390 Express поддерживают все без исключения процессоры поколений Coffee Lake и Coffee Lake Refresh. Однако логичнее всего тестировать новинки вместе с 8-ядерными флагманскими чипами. В моем распоряжении оказалась модель Core i9-9900K. Полностью список комплектующих приведен в таблице ниже.
|
Конфигурация тестового стенда
|Центральный процессор
|Intel Core i9-9900K, 8 ядер, 3,5 (5,0) ГГц
|Материнская плата
|ASUS ROG MAXIMUS XI GENE (BIOS 0905)
|Оперативная память
|G.Skill Trident Z F4-3200C14D-32GTZ, DDR4-3200, 2 × 16 Гбайт
|Накопитель
|Samsung 850 PRO
|Видеокарта
|Inno3D GeForce RTX 2080, 8 Гбайт GDDR6
|Блок питания
|Corsair HX850i, 850 Вт
|Процессорный кулер
|Noctua NH-D15
|NZXT Kraken X62
|Корпус
|Открытый тестовый стенд
|Монитор
|Acer S277HK, 27", Ultra HD
|Операционная система
|Windows 10 Pro x64
|
ПО для видеокарт
|NVIDIA
|GeForce Game Ready Driver 425.31
|
Дополнительное ПО
|Удаление драйверов
|Display Driver Uninstaller 17.0.6.1
|Измерение FPS
|Fraps 3.5.99
|FRAFS Bench Viewer
|Action! 2.3.0
|Разгон и мониторинг
|GPU-Z 1.19.0
|MSI Afterburner 4.6.0
|
Дополнительное оборудование
|Тепловизор
|Fluke Ti400
|Шумомер
|Mastech MS6708
|Ваттметр
|watts up? PRO
Для более наглядной демонстрации положительного эффекта от разгона центрального процессора и оперативной памяти на тестовом стенде запускались следующие бенчмарки и игры:
Начнем с того, что ASUS ROG MAXIMUS XI GENE отлично заработала с комплектом оперативной памяти G.Skill. В этом отношении материнские платы ASUS можно считать эталонными — причем данная похвала относится не только к устройствам на базе как платформы LGA1151-v2, так и AM4. Комплект завелся на эффективной частоте 3466 МГц при штатном наборе задержек. Однако система при таких настройках была стабильной далеко не во всех приложениях, поэтому частоту комплекта ОЗУ пришлось снизить до 3400 МГц. Да, 32-гигабайтный набор G.Skill оказался очень нерасторопным в плане разгона.
При загрузке всех восьми ядер Core i9-9900K работает на частоте 4,7 ГГц. Согласитесь, показатели уже нешуточные, поэтому мы в статьях (например, в «Компьютере месяца») отмечаем, что дополнительно разгонять новенькие Coffee Lake Refresh нет особого смысла. Вместе с тем для работы уже в таком режиме необходимо обеспечить эффективный отвод тепла от CPU, а также не допустить перегрева подсистемы питания материнской платы. И с этим у многих материнских плат для платформы LGA1151-v2 могут возникнуть некоторые проблемы. У многих, но не у ASUS ROG MAXIMUS XI GENE.
Материнские платы тестируются в довольно сложных условиях, так как используется открытый стенд и необслуживаемая система водяного охлаждения. Это значит, что конвертер питания ASUS ROG MAXIMUS XI GENE никак не обдувается во время тестов. В таких условиях «болячки» любой материнской платы, претендующей на звание оверклокерской, становятся наиболее заметными.
Даже без разгона Core i9-9900K заставляет элементы VRM-зоны рассматриваемого устройства нагреваться до 77 градусов Цельсия. Справедливости ради отмечу, что при выполнении задач другого рода (а нас интересуют в основном игры) конвертер питания ASUS ROG MAXIMUS XI GENE греется заметно меньше. Так, после двухчасовой сессии в «Ведьмака-3» самое горячее место на плате нагрелось до 58 градусов Цельсия. Разницу в 19 градусов Цельсия я считаю существенной.
Естественно, разгон накладывает на работу компонентов системы свои отпечатки. Мне удалось увеличить частоту Core i9-9900K до 5,2 ГГц, условно говоря, в играх и до 5 ГГц — в программах, использующих AVX-инструкции. Для этого пришлось увеличить напряжение процессора до 1,35 В и выставить пятый уровень Load-Line Calibration. Скриншот выше наглядно показывает, что система в LinX 0.9.1 работала абсолютно стабильно. Максимальная температура самого горячего ядра CPU составила 94 градуса Цельсия. Максимальный уровень потребления энергии стенда увеличился с 247 до 300 Вт в LinX, и с 308 до 330 Вт — в «Ведьмаке».
Конечно же, возросла и нагрузка на VRM-зону платы. В сложных условиях температура конвертера питания подскочила до 91 градуса Цельсия, в легких сценариях работы — до 62 градусов Цельсия.
В целом подсистема питания ASUS ROG MAXIMUS XI GENE и ее система охлаждения хорошо справляются с выполнением своих обязанностей. Плату можно смело использовать вместе с любым 8-ядерным чипом Coffee Lake Refresh. В том числе и в разгоне.
В заключение приведу результаты тестирования системы в режиме по умолчанию и после разгона Core i9-9900K до 5,0/5,2 ГГц. Как видите, увеличение частоты на 300 МГц (или на 6 %), когда речь идет о программах, использующих AVX-инструкции, привело к аналогичному увеличению производительности в многопоточных задачах. Хотя есть программы (например, CPU-тест 3DMark Time Spy), в которых разница между системами достигает порой 10 %.
В играх практически никакого толку от такого разгона не наблюдается — даже при использовании GeForce RTX 2080, даже в разрешении Full HD, в котором эту видеокарту, на мой взгляд, использовать просто бессмысленно.
В общем, в данном конкретном случае разгонять Core i9-9900K особого смысла не имеет.
Отсутствие нескольких слотов расширения не является проблемой для матплат форм-фактора Micro-ATX. Вы часто устанавливаете что-либо, кроме дискретной видеокарты? Если да, то вы знаете, что надо делать — на рынке полно материнок форм-фактора ATX. С другой стороны, у ASUS ROG MAXIMUS XI GENE отличные звуковой и сетевой контроллеры — то есть устройство не особо нуждается в доработках в этом направлении.
Да и в целом к ASUS ROG MAXIMUS XI GENE у меня почти нет претензий. Если говорить о хорошем, то тестирование показало, что эта mATX-плата отлично подходит для использования вместе с 8-ядерными чипами Coffee Lake. Причем конвертер питания даже в сложных условиях справляется с разгоном 8-ядерного Core i9-9900K до 5-5,2 ГГц. К тому же не всегда встретишь ATX-плату, которая позволит использовать сразу четыре M.2-накопителя. Да, такое количество SSD в 2019 году мало кто поставит в систему, но вот наличие сразу семи разъемов для подключения вентиляторов точно достойно похвалы. Как и внутреннего интерфейса USB 3.1 Gen2 и встроенного модуля беспроводной связи.
Если говорить о недостатках, то GENE все же имеет огрехи в компоновке разъемов на печатной плате. Самый заметный — это непосредственная близость двух слотов DIMM к процессорному гнезду. Поэтому перед покупкой этого устройства убедитесь в том, что ваши плата, система охлаждения и оперативная память совместимы друг с другом.
В результате единственное, что отпугнет, как мне кажется, большинство потенциальных покупателей — это цена ASUS ROG MAXIMUS XI GENE. Меньше 23 000 рублей стоит, например, ранее протестированная полноформатная ASUS ROG STRIX Z390-E GAMING. И в целом для полноразмерных корпусов за эти деньги есть очень интересные варианты. Но если вам хочется собрать мощный ПК в относительно компактном корпусе, да с 8-ядерным Core i9-9900K и видеокартой уровня GeForce RTX 2080 (Ti), то ASUS ROG MAXIMUS XI GENE |
986,168 | Обзор смартфона Vivo V15 Pro: самовыдвиженец | Корпорация BBK, добившись отличных успехов с брендами Vivo, OPPO и Realme у себя на родине, в Китае, старается перенести эти успехи на чужеземную почву – и в Россию, в частности. Получается пока не то чтобы очень здорово, но компания продолжает попытки нащупать свой подход, отличный от наиболее очевидного «подешевле да с характеристиками получше». Один из путей – удивлять.
Серия Vivo NEX как раз и создана для того, чтобы удивлять. Прошлогодний флагман стал первым в мире смартфоном с выдвижной камерой, что позволило сделать почти абсолютно безрамочный дисплей без ухищрений вроде «челки» или бельма в виде вставленной прямо в экран фронталки. В начале этого года появился второй NEX, в котором тот же результат достигался при помощи дополнительного дисплея с задней стороны. Оба этих смартфона вышли ограниченным тиражом и по весьма серьезной цене.
Vivo V15/V15 Pro – это прямой продолжатель идей прошлогоднего NEX, но рассчитанный на более массового потребителя: с вдвое более низкой ценой, при этом более тонкий, легкий и с тройной камерой.
Vivo V15, несмотря на почти такое же название, отличается от Pro-версии кардинально: более слабая платформа (Mediatek P70) сочетается с чуть более крупным (6,53 дюйма) дисплеем с ЖК-матрицей, более емкой батареей и упрощенной, но тоже тройной камерой. Vivo V15 стоит 28 990 рублей, V15 Pro – 34 990 рублей. В этом обзоре мы поговорим только о Pro-версии.
|
Vivo V15 Pro |
Xiaomi Mi 9 |
OnePlus 6T |
Honor View 20 |
Oppo RX17 Pro
|
Дисплей |6,39 дюйма, AMOLED,
2340 × 1080 точек, 403 ppi, емкостный мультитач
|6,39 дюйма, AMOLED,
2340 × 1080 точек, 403 ppi, емкостный мультитач
|6,41 дюйма, AMOLED,
2340 × 1080 точек, 402 ppi, емкостный мультитач
|6,4 дюйма, IPS,
2310 × 1080 точек, 398 ppi, емкостный мультитач
|6,4 дюйма, AMOLED,
2340 × 1080 точек, 401 ppi, емкостный мультитач
|
Защитное стекло |Есть, производитель не уточняется
|Corning Gorilla Glass 6
|Corning Gorilla Glass 6
|Corning Gorilla Glass (версия неизвестна)
|Corning Gorilla Glass 6
|
Процессор |Qualcomm Snapdragon 675: два ядра Kryo 460 Gold, частота 2,0 ГГц + шесть ядер Kryo 460 Silver, частота 1,7 ГГц
|Qualcomm Snapdragon 855: одно ядро Kryo 485 Gold, частота 2,85 ГГц + три ядра Kryo 485 Gold, частота 2,42 ГГц + четыре ядра Kryo 485 Silver, частота 1,8 ГГц
|Qualcomm Snapdragon 845: четыре ядра Kryo 385 Gold, частота 2,8 ГГц + четыре ядра Kryo 385 Silver, частота 1,7 ГГц
|HiSilicon Kirin 980: восемь ядер (2 × ARM Cortex A76, частота 2,6 ГГц + 2 × ARM Cortex A76, частота 1,92 ГГц + 4 × ARM Cortex A55, частота 1,8 ГГц); архитектура HiAI
|Qualcomm Snapdragon 710: два ядра Kryo 360 Gold, частота 2,2 ГГц + шесть ядер Kryo 360 Silver, частота 1,7 ГГц
|
Графический контроллер |Adreno 612
|Adreno 640
|Adreno 630, 710 МГц
|ARM Mali-G76 MP10, 720 МГц
|Adreno 616, 750 МГц
|
Оперативная память |6 Гбайт
|6/8/12 Гбайт
|6/8/10 Гбайт
|6/8 Гбайт
|6 Гбайт
|
Флеш-память |128 Гбайт
|128/256 Гбайт
|128/256 Гбайт
|128/256 Гбайт
|128 Гбайт
|
Поддержка карт памяти |Есть
|Нет
|Нет
|Нет
|Есть
|
Разъемы |MicroUSB, мини-джек 3,5 мм
|USB Type-C
|USB Type-C
|USB Type-C, мини-джек 3,5 мм
|USB Type-C
|
SIM-карты |Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|
Сотовая связь 2G |GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
CDMA 800
|GSM 850/900/1800/1900 МГц
CDMA 800/1900
|GSM 850/900/1800/1900 МГц
|GSM 850/900/1800/1900 МГц
|
Сотовая связь 3G |HSDPA 850 / 900 / 1900 / 2100 МГц
|HSDPA 850 / 900 / 1700 / 1900 / 2100 МГц
|HSDPA 800 / 850 / 900 / 1700 / 1800 / 1900 / 2100 МГц
|HSDPA 850 / 900 / 1700 / 1900 / 2100 МГц
|WCDMA 800 / 850 / 900 / 1700 / 1900 / 2100 МГц
|
Сотовая связь 4G |LTE Cat.12 (до 600 Мбит/с): диапазоны 1, 3, 5, 7, 8, 20, 28, 38, 40, 41
|LTE: диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 20, 28, 38, 39, 40
|LTE Cat.16 (до 1024 Мбит/с): диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 13, 17, 18, 19, 20, 25, 26, 28, 29, 30, 32, 34, 38, 39, 40, 41, 46, 66, 71
|LTE Cat. 13 (до 400 Мбит/с): диапазоны 1, 2, 3, 4, 5, 6, 7, 8, 19, 20, 28, 38, 39, 40, 41
|LTE Cat.15 (до 800 Мбит/с): диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 17, 18, 19, 20, 25, 26, 28, 32, 34, 38, 39, 40, 41
|
Wi-Fi |802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|
Bluetooth |5.0
|5.0
|5.0
|5.0
|5.0
|
NFC |Есть
|Есть
|Есть
|Есть
|Есть
|
Навигация |GPS, A-GPS, ГЛОНАСС, BeiDou
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo, QZSS
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|
Датчики |Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас), ИК-датчик
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|
Сканер отпечатков пальцев |Есть, на экране
|Есть, на экране
|Есть, на экране
|Есть
|Есть, на экране
|
Основная камера |Тройной модуль: 48 Мп, ƒ/1,8 + 8 Мп, ƒ/2,2 + 5 Мп, ƒ/2,2 (датчик глубины), фазовый автофокус на главной камере, светодиодная вспышка
|Тройной модуль: 48 Мп, ƒ/1,8 + 16 Мп, ƒ/2,2 + 12 Мп, ƒ/2,2, гибридный автофокус, двойная светодиодная вспышка
|Двойной модуль, 16 + 20 Мп, ƒ/1,7 + ƒ/1,7, гибридный автофокус, двойная светодиодная вспышка
|Двойной модуль, 48 Мп, ƒ/1,8 + 3D-TOF камера, фазовый автофокус, светодиодная вспышка
|Двойной модуль, 12 + 20 Мп, ƒ/1,5-2,4 + ƒ/2,6, фазовый автофокус, оптическая стабилизация, светодиодная вспышка
|
Фронтальная камера |32 Мп, ƒ/2,0, фиксированный фокус, выдвижная
|20 Мп, ƒ/2,0, фиксированный фокус
|16 Мп, ƒ/2,0, фиксированный фокус
|25 Мп, ƒ/2,0, фиксированный фокус
|25 Мп, ƒ/2,0, фиксированный фокус
|
Питание |Несъемный аккумулятор: 14,06 Вт·ч (3700 мА·ч, 3,8 В)
|Несъемный аккумулятор: 12,54 Вт·ч (3300 мА·ч, 3,8 В)
|Несъемный аккумулятор: 14,06 Вт·ч (3700 мА·ч, 3,8 В)
|Несъемный аккумулятор: 15,2 Вт·ч (4000 мА·ч, 3,8 В)
|Несъемный аккумулятор: 14,06 Вт·ч (3700 мА·ч, 3,8 В)
|
Размер |157,3 × 74,7 × 8,2 мм
|157,5 × 74,7 × 7,6 мм
|157,5 × 74,8 × 8,2 мм
|156,9 × 75,4 × 8,1 мм
|157,6 × 74,6 × 7,9 мм
|
Масса |185 граммов
|173 грамма
|185 граммов
|180 граммов
|183 грамма
|
Защита корпуса |Нет
|Нет
|Нет
|Нет
|Нет
|
Операционная система |Android 9.0 Pie, оболочка FunTouch 9
|Android 9.0 Pie, оболочка MIUI
|Android 9.0 Pie, оболочка OxygenOS
|Android 9.0 Pie, оболочка EMUI
|Android 8.1 Oreo, оболочка ColorOS
|
Актуальная цена |33 990 рублей
|35 990 рублей за версию 6/64 Гбайт
|44 990 рублей за версию 6/128 Гбайт, 39 350 рублей за версию 8/128 Гбайт, 52 990 рублей за версию 8/256 Гбайт
|37 990 рублей за версию 6/128 Гбайт, 42 190 рублей за версию 8/256 Гбайт
|49 990 рублей
⇡#
**Дизайн, эргономичность и программное обеспечение**
Внешность Vivo V15 Pro выражает его концепцию. Это почти лишенный рамок вокруг дисплея (экран здесь занимает 91,64 % площади лицевой панели), относительно тонкий смартфон с явным акцентом на тыльной камере. Он выражается в том, что блок, в котором разместились три объектива и вспышка, не только выступает над корпусом, но и даже выделен цветом.
Вообще, цветовое оформление Vivo V15 Pro заслуживает отдельных слов. Яркие смартфоны сегодня уже не удивляют: времена поголовно черных, серебристых и золотых трубок, к счастью, прошли – и V15 Pro прекрасно согласовывается с этой тенденцией: он бывает медно-красным («яркий коралл»), как в нашем случае, и сине-голубым («голубой топаз»). Добавляю, что спинка получила также необычную фактуру, за счет которой корпус бросает красивые отблески в лучах света.
И лицевая, и задняя панели прикрыты стеклом – на спинке оно изогнуто к краям, чтобы визуально уменьшить толщину аппарата и улучшить хват. Переднее стекло плоское. Как и почти любой современный стеклянный смартфон, особенно с изогнутыми краями, Vivo V15 Pro норовит уползти с любой неидеальной плоской поверхности — будьте аккуратнее. Из рук он тоже может выскользнуть, да и устойчивостью к различным жирным пятнам и отпечаткам его задняя поверхность не отличается. Если пользоваться V15 Pro без чехла, придется также обзавестись тряпочкой для протирки и регулярно ей пользоваться.
Несмотря на узкие рамки и малую толщину, пользоваться Vivo V15 Pro одной рукой невозможно – 6,4-дюймовый дисплей с трудом позволяет сомкнуть пальцы руки, а говорить о том, чтобы доставать до его углов, не приходится.
Блок фронтальной камеры расположен на верхней панели. Как нетрудно догадаться, он толще основной части корпуса и размещается в том самом выступающем над корпусом блоке камер. Принудительно извлечь фронтальную камеру вручную невозможно. Камера выдвигается только при необходимости, когда вы включаете какое-либо приложение, требующее ее участия. Если вы редко фотографируетесь и вообще не поклонник селфи, то наблюдать ее появление, которое сопровождается характерной hi-tech-озвучкой, придется нечасто. На то, чтобы выдвинуться или спрятаться, у этого механизма уходит около секунды. Как и любой подобный телескопический элемент, камера собирает довольно много пыли, даже если вы пользуетесь ей редко, – просто она набивается в щель. Почти каждый раз, перед тем как сделать селфи, объектив придется протирать.
В эргономике Vivo V15 Pro есть еще три отличительных элемента. Первый – это дополнительная клавиша на левой грани, она изначально создана для вызова фирменного умного помощника Jovi, но у нас его способности очень ограниченны, так что в данном случае она активирует Google Assistant. Второй – это сразу два слота для различных карточек. Тот, что снизу, принимает две карточки nano-SIM, тот, что на левой грани, – microSD. Оригинальное и полезное для пользователя решение.
Третий момент – это порт microUSB вместо уже давно привычного и более актуального USB Type-C. Это тоже оригинальное, но совсем парадоксальное решение. Да, найти microUSB-кабель все еще проще, но в смартфонах этого класса подобный разъем уже не встретишь. Еще один «анахронизм» – мини-джек, вынесенный на верхнюю грань. Ему как раз радуешься, и говорить о принесенной ему в жертву влагозащите не приходится – все равно она невозможна при наличии выдвижного элемента. Датчики освещения и приближения спрятаны под экраном – их работу можно заметить в какие-то моменты по мерцанию из-под прикрывающего экран защитного стекла.
В размещении сканера отпечатков пальцев под экраном у Vivo опыта больше, чем у кого бы то ни было, – именно эта компания выпустила смартфон Vivo X20 Plus UD, первым в мире получивший этот элемент. Сегодня таких уже немало, но работают ультразвуковые сенсоры далеко не всегда стабильно. Vivo V15 Pro в этом плане удачный пример – по опыту взаимодействия с ним местный оптический сенсор мало отличается от привычного емкостного. Да, срабатывает чуть дольше, зато очень стабильно и с минимальным процентом брака.
Интересно, что, несмотря на отсутствие постоянно активной фронтальной камеры и наличие отлично работающего сканера отпечатков, Vivo не стала отказываться от системы распознавания лица. Она здесь элементарная — просто сверяет лицо с фотографией, сделанной на фронталку, но зато работает: камера на полсекунды появляется из корпуса, делает свое дело и тут же уходит назад. Весь процесс занимает не более секунды.
Vivo V15 Pro получил 6,4-дюймовый дисплей с AMOLED-матрицей разрешением 2340 × 1080 точек (формат 19,5:9). Плотность пикселей – 403 ppi. Экран на органических светодиодах – одно из важнейших преимуществ V15 Pro перед многими конкурентами. Несмотря на активное проникновение матриц подобного типа на рынок, они все-таки в основном достаются флагманам, и смартфон верхнего среднего класса Vivo – один из немногих в своем роде.
И по детализации, и по углам обзора придраться к экрану Vivo V15 Pro сложно. Можно, конечно, – на экране такой диагонали несложно увидеть разницу между видео с разрешением Full HD и 4K при более высокой плотности пикселей, но это, если честно, совсем не критично. Речь все-таки о мобильном устройстве. Экран снабжен сенсорным покрытием, реагирующим на 10 одновременных прикосновений, все основные жесты мультитач поддерживаются. Есть поляризационный слой. Олеофобное покрытие тоже на месте, и очень неплохое. Протирается V15 Pro без особенных усилий.
Максимальная измеренная яркость составляет 443 кд/м
2. Хороший показатель для AMOLED-дисплея — в сочетании с поляризационным слоем это позволяет уверенно пользоваться смартфоном при любом освещении. Солнце, конечно, влияет на сочность цветов, но с различимостью картинки точно не будет никаких проблем.
Есть возможность включить отображение времени и уведомлений даже на заблокированном телефоне с условно выключенным экраном – то, что мы знаем под названием Always-On Display, но все называют эту функцию по-разному, кто во что горазд. Доступно несколько типов ее визуального оформления.
Настроек экрана в Vivo V15 Pro минимум – управление яркостью наладить, шрифты подрихтовать да цветовую температуру поменять. Можно сделать цвета потеплее, можно похолоднее, но глобально с цветопередачей дисплея этого смартфона ничего не сделать, остается довериться заводским настройкам.
Средняя гамма составляет 2,28 при очень спокойном поведении кривых, так что настройку гаммы стоит признать в целом корректной. Цветовая температура колеблется от 7 000 до 8 400 К с медианой примерно в 8 000 К. Ничего критичного, но изображение будет холоднее должного, это типичная ситуация для смартфонных настроек по умолчанию — считается, что холодные цвета лучше воспринимаются глазом. При желании можно это подкорректировать в меню. Цветовой охват близок к стандарту DCI-P3, но точностью цветопередачи смартфон не выделяется – среднее отклонение DeltaE по шкале Color Checker составляет 5,42. Это подкорректировать не выйдет. Показатель опять же не плохой, но и не очень хороший. Скорее обычный по смартфонным меркам.
За счет наличия мини-джека Vivo V15 Pro уже выделяется на общем фоне современных смартфонов выше бюджетного уровня. Теперь возможность пользоваться проводными наушниками без переходника – редкость. В остальном же какими-то особыми талантами в области звука V15 Pro не отличается. Запас мощности чуть выше среднего, качество звучания вполне рядовое. Основной динамик один-единственный, расположен на нижней грани. Звучит громко, больше сказать о нем нечего.
⇡#
**«Железо» и производительность**
Vivo V15 Pro – один из первых смартфонов с платформой Qualcomm Snapdragon 675. Это система среднего класса с двумя ядрами Kryo 460 Gold тактовой частотой 2,0 ГГц и шестью Kryo 460 Silver тактовой частотой 1,7 ГГц. Техпроцесс – 11 нм. Графика – Adreno 612 (тактовая частота не указывается).
Не знаю, честно говоря, как относиться к тому, что в смартфоне класса V15 Pro используется платформа класса Snapdragon 675. С одной стороны, примерно в этой ценовой категории выступают и Xiaomi Mi 9, и, с некоторым допущением, OnePlus 6T с их флагманскими «снэпдрэгонами». И в бенчмарках V15 Pro проигрывает, по сути, всем, что и не удивительно.
С другой стороны, Snapdragon 675 обеспечивает смартфону достаточно гладкую работу – приложения открываются быстро, можно спокойно работать с множеством приложений «в фоне» и не переживать из-за веера открытых вкладок в браузере. Игровая производительность ограничена, но лишь тем, что приходится понижать настройки в самых требовательных играх – запустить на V15 Pro можно, в принципе, все что угодно. Вопрос использования платформы среднего класса в смартфоне за 35 тысяч рублей – по сути, репутационный. Ну и также это вопрос, который касается запаса прочности на будущее, – у Snapdragon 675 «ресурс», конечно же, ниже, чем у Snapdragon 855, Kirin 980 или даже Snapdragon 710. Подтормаживать Vivo V15 Pro начнет раньше конкурентов.
Qualcomm Snapdragon 675 при этом снабжена выделенным — и очень качественным — блоком, рассчитанным на работу с нейросетями, что и демонстрирует синтетический тест Ludashi AI Mark. Для сравнения: Vivo NEX Dual Display со Snapdragon 845 на борту набрал 18 295 баллов, а Honor View 20 c очень напористым в этом плане Kirin 980 – 19 024 балла. Тут же их 20 991. Все операции с задействованием нейросетей, в основном связанные с работой камеры, выполняются уверенно и быстро.
Охлаждение Vivo V15 Pro организовано нормально. Физически перегрев не ощущается, корпус смартфона при серьезных нагрузках не становится горячим. Бенчмарк CPU Throttling Test продемонстрировал понижение частоты до 77 % от максимума при среднем уровне 130 GIPS. Далеко не рекорд, но вполне пристойный показатель.
Существует одна-единственная версия Vivo V15 Pro — с 6 Гбайт оперативной памяти и накопителем на 128 Гбайт. Еще раз добавлю про наличие выделенного слота для карты microSD емкостью до 256 Гбайт. Проблем с памятью у V15 Pro нет никаких.
⇡#
**Связь и беспроводные коммуникации**
В слот, который находится на нижней грани корпуса, можно установить две карточки стандарта nano-SIM – они обе поддерживают работу с LTE, но функционируют в режиме dual stand-by: одновременная активность с обеих симок невозможна. Смартфон «дружит» с LTE-сетями 12-й категории. Предельная доступная скорость приема данных составляет 600 Мбит/с, передачи – 50 Мбит/с. Есть поддержка всех ключевых диапазонов, необходимых для нормальной работы LTE-модема в России.
В Vivo наконец-то поняли ключевое отличие европейских и американских сценариев использования смартфона от китайских — и стали регулярно добавлять в глобальные версии своих гаджетов NFC-модули. Не исключение и V15 Pro. Вместе с NFC здесь можно найти Bluetooth 5.0 (с поддержкой aptX) и двухдиапазонный Wi-Fi с поддержкой 2 × 2 MIMO (802.11 a/b/g/n/ac). Навигационный модуль работает с системами GPS (A-GPS), ГЛОНАСС и BeiDou и делает это нормально.
В Vivo V15 Pro установлена тройная тыльная камера. Это не значит, что тут есть оптический зум, — нет, только широкоугольный режим, а третья, 5-мегапиксельная, камера отвечает исключительно за определение глубины резкости в портретном режиме. Это не TOF-камера, ИК-датчика при ней нет.
Главный модуль при этом достаточно любопытен – это 48-мегапиксельный сенсор Quad Bayer физическими размерами 1/2,25’’ (размер пикселя – 0,8 мкм), скорее всего – авторства Samsung, как и в Redmi Note 7. Оптика – с относительным отверстием
*ƒ*/1,8. Есть фазовый автофокус, а вот оптического стабилизатора и эта камера, и широкоугольный модуль лишены. По умолчанию снимает смартфон с разрешением 12 мегапикселей, но при съемке со стандартным углом обзора можно активировать и режим на 48 Мп. Делать это совсем необязательно – несмотря на формальную четырехкратную прибавку в разрешении, детализация снимков отличается не так кардинально.
Широкоугольный модуль обладает 8-мегапиксельным сенсором и оптикой светосилой
*ƒ*/2,2, которая предлагает расширенный в два раза угол обзора. Автофокуса в ней нет, что совсем не критично. Применяется эта камера, понятное дело, в основном при съемке пейзажей, и фиксированный на бесконечность фокус вполне адекватен сценарию. Качество съемки в этом формате нормальное при хорошем освещении – детализация неплохая, цветопередача может быть чуть теплее, чем надо, но в целом скорее в пределах нормы. В темноте же или при недостаточно ярком искусственном свете широкоугольный модуль теряется – сочетание небольшого сенсора и не слишком светосильной оптики дает о себе знать.
Главная особенность камеры Vivo V15 Pro – как раз ее развитые интеллектуальные способности, для чего и используются мощности специального модуля платформы Snapdragon 675. Камера, как сейчас принято, умеет распознавать сцену (одну из 17, но дальше больше) и подстраиваться под нее. Как правило, это происходит за счет повышения насыщенности в различных частях изображения – небо становится синее, цветы – ярче. Часто старания интеллектуального режима выглядят чрезмерными, а отключить одним касанием иконки его нельзя — он активирован по умолчанию и отключается только через общий список настроек.
Куда более выразительно применяет «искусственный интеллект» Vivo V15 Pro в портретном режиме, который здесь зовется «красивое лицо с применением ИИ». Смартфон почти не лжет – лицо действительно можно делать красивее. Ну хотя бы попытаться. Речь не о классическом «бьютификаторе», сглаживающем кожу и слегка рихтующем черты лица, а о системе, в которой можно менять отдельные части как лица (челюсть, глаза, нос и так далее), так и тела – положение головы, плеч, толщину талии и так далее. Это довольно пугающие возможности, которые в и так перенасыщенном «фотошопом» мире могут привести к окончательному расхождению картинки в Интернете и реальности, но такие уж времена. До этого мы видели только один телефон, умеющий уменьшать талию и настолько подробно работать с лицом, – Honor View 20. Vivo V15 Pro задает тут новый потолок.
Приложение камеры знакомо по прошлым смартфонам Vivo, которые были у нас на тестировании: от V9 до Vivo NEX Dual Display. Логика не изменилась, разве что за счет ИИ-возможностей расширился набор опций. Помимо того, что мы упоминали выше, есть «живые фото», автоматическая склейка HDR (по умолчанию активирован режим «авто») и панорам, а также «профессиональный» режим с возможностью ввода части настроек вручную.
Отдельной строкой отмечу ночной режим – склейку многокадровой экспозиции, получаемой за три секунды, которая позволяет добиться яркой и детализированной картинки ночью. Увы, работает этот режим в V15 Pro грубовато, изображение получается неестественным, с задранной яркостью и чрезмерной контурной резкостью.
Общее впечатление от качества съемки Vivo V15 положительное. Основная камера способна давать хороший результат как при идеальном освещении, так и при недостаточном свете – нехватка оптического стабилизатора почти не чувствуется. Шумы сведены к минимуму, при этом просадка детализации не так уж критична. Цветопередача хорошая, с балансом белого промашек мало. Динамический диапазон далек от идеала, но помогает автоматическая склейка HDR.
Доступна видеосъемка с 4K-разрешением и частотой до 30 кадров в секунду. Обратите внимание, что по умолчанию камера смартфона снимает почему-то с разрешением 720p — стоит сразу отрегулировать этот момент в настройках.
Выдвижная камера Vivo V15 Pro выделяется не только своим механизмом, но и характеристиками – 32 мегапикселя,
*ƒ*/2,0. Причем не только цифрой славна селфи-камера этого смартфона — она выдает по-настоящему качественную картинку, с прекрасной детализацией и хорошим размытием фона. Частично доступен и интеллектуальный режим – он здесь работает исключительно с лицом, а не со всем телом. Есть различные маски дополненной реальности и световые эффекты. Фронтальную камеру Vivo V15 Pro можно смело назвать выдающейся.
В Vivo V15 Pro установлена батарея емкостью 14,06 Вт·ч (3700 мА·ч, 3,8 В). Для смартфона с AMOLED-дисплеем, даже столь внушительной диагонали, – вполне нормально. На практике это мнение подтверждается – смартфон спокойно держит заряд сутки при активном, но не постоянном использовании (с перерывом на сон, понятное дело) и гарантирует световой день при серьезной нагрузке.
В нашем традиционном тесте с воспроизведением HD-видео на максимальной яркости, при включенном беспроводном соединении, с активными уведомлениями, смартфон проявляет себя прекрасно – 16 часов.
Vivo V15 Pro предусматривает быструю зарядку, но ничего сверхъестественного для смартфона с портом microUSB не доступно по определению – максимум 18 Вт, за счет которых аккумулятор набирает 24 % заряда за 15 минут. За сколько он наберет 100 % — сказать достоверно не могу, поскольку смартфон поступил на тест без своего зарядного устройства. Но это уровень Quick Charge 3, так что можно рассчитывать на примерно два часа.
Так получилось, что у Vivo V15 Pro почти нет прямых конкурентов – у него довольно уникальный набор характеристик: с аппаратной начинкой среднего уровня сочетается выдвижная фронталка (причем превосходная), тройная тыльная камера с мощными интеллектуальными возможностями и почти безрамочный AMOLED-дисплей. И все это почему-то с разъемом microUSB.
В этом своеобразии как достоинство Vivo V15 Pro, так и его недостаток – целевая аудитория смартфона оказывается довольно узкой. Стоит говорить в первую очередь о тех, кому всерьез важна качественная селфи-камера, и оригиналах, способных оценить нестандартность дизайна Vivo V15 Pro. Для массового успеха смартфону не хватает в первую очередь мощности аппаратной платформы.
**Достоинства:** **Недостатки:** |
986,274 | Gamesblender № 409: первые подробности PS5, анонс «цифровой» Xbox One S и ремейка комикс-шутера XIII | С вами GamesBlender, еженедельный видеодайджест новостей игровой индустрии от 3DNews.ru. В сегодняшнем выпуске: печальная неразбериха с Beyond Good & Evil 2; королевская битва, которая никак не может случиться; хорошие новости для скучающих по Commandos. А также другие новости и события игровой индустрии |
986,277 | Обзор 27-дюймового монитора Samsung Space: компактный минимализм | Модели мониторов с разрешением WQHD и диагональю экрана 27 дюймов представлены в продаже очень широко, и такая картина наблюдается уже не первый год. Их популярность неудивительна: они предлагают сочетание достаточно высокой плотности пикселей при отсутствии необходимости масштабирования интерфейса приложений, умеренных на фоне 4К-мониторов требований к производительности видеокарты (в случае игрового использования) и не слишком кусающейся цены.
Но при наличии огромного выбора подобных моделей весьма сложно сделать уникальное предложение: почти наверняка кто-то уже выпустил нечто весьма похожее. Тем не менее в случае с рассматриваемой моделью Samsung S27R750QEI производителю это удалось. Перед нами самый доступный «плоский» монитор такой диагонали экрана и разрешения на матрице, отличной от TN, с поддержкой частоты обновления 144 Гц, вдобавок отличающийся весьма оригинальной конструкцией подставки.
Именно подставка является главной отличительной особенностью серии мониторов Samsung Space, в которую пока входят две модели: рассматриваемый нами сегодня S27R750QEI (с диагональю экрана 27 дюймов, разрешением WQHD и частотой обновления 144 Гц) и S32R750UEI (31,5 дюйм, 4К UHD, 60 Гц).
Подставка позволяет как расположить экран вровень с поверхностью стола, так и экономить место на столе при высоком расположении дисплея: в этом случае от столешницы отнимается лишь крохотный кусочек, занимаемый верхней стороной фиксатора. Доступны, разумеется, и любые промежуточные положения.
Из пары представленных моделей попавший к нам на тестирование вариант с меньшей диагональю экрана и более скромным разрешением выглядит интереснее благодаря высокой частоте обновления экрана, которую наверняка оценят любители скоротать время за играми (да и не только они — лучшая плавность ощутима и при более серьезном времяпрепровождении). Конечно, вряд ли матрица типа VA сможет обеспечить время отклика на уровне решений, основанных на дисплеях IPS или тем более TN, но эта разница в большинстве случаев будет критична лишь для весьма узкого круга профессиональных геймеров. Зато матрицы VA предпочтительны для более универсального использования и традиционно славятся такими достоинствами, как наиболее глубокий черный цвет среди всех типов ЖК-матриц и заметно лучшие, чем у матриц TN, цветопередача и углы обзора.
На российском рынке модели Samsung Space — горячие новинки: продажи стартовали лишь в начале апреля. Да и сами мониторы были анонсированы совсем недавно: на CES 2019 в январе этого года.
|
Samsung S27R750QEI
|
Экран
|Диагональ, дюймы
|27
|Соотношение сторон
|16:9
|Покрытие матрицы
|Полуматовое
|Стандартное разрешение , пикс .
|2560 × 1440
|PPI
|109
|
Параметры изображения
|Тип матрицы
|VA
|Тип подсветки
|Quantum Dot
|Макс. яркость, кд/м
2 |250
|Контрастность статическая
|3000:1
|Количество отображаемых цветов
|1 млрд
|Частота вертикальной развертки, Гц
|48-144
|Время отклика BtW, мс
|НД
|Время отклика GtG, мс
|4
|Максимальные углы обзора
|178/178
|по горизонтали/вертикали, °
|
Разъемы
|Видеовходы
|1 × HDMI 2.0; 1 × miniDisplay Port 1.2
|Дополнительные порты
|1 × USB (сервисный)
|Встроенные колонки: число × мощность, Вт
|Нет
|Дополнительно
|Поддержка ПО Easy Setting Box
|
Физические параметры
|Регулировка положения экрана
|Угол наклона от -5 до 20° (рекомендованный диапазон значений), 0-213,9 мм по высоте
|VESA-крепление: размеры (мм)
|Нет
|Крепление для замка Kensington
|Да
|Блок питания
|Внешний
|Потребляемая мощность максимальная / типичная / в режиме ожидания (Вт)
|48 / 43,5 / <0,5
|Габаритные размеры (с подставкой в вертикальном положении), мм
|614,8 × 730,3 × 115,5
|Масса нетто (с подставкой), кг
|5,8
|Ориентировочная цена
|29 990 ₽
Данные о технических характеристиках монитора, предоставленные производителем, не слишком подробны — в частности, не указан тип использованной VA-матрицы и подсветки. Однако информация, полученная нами в ходе измерений (с которыми можно будет ознакомиться ниже), указывает на то, что использована подсветка на основе квантовых точек. В пользу этой версии говорит как цветовой охват (около 125% пространства sRGB, что типично для данного типа подсветки), так и отмеченная на некоторых других моделях с таким типом подсветки форма области цветового охвата (несколько отличная от треугольника). А заявленный 1 млрд отображаемых оттенков говорит, по всей видимости, о применении 8-битной матрицы + FRC.
Монитор предлагает лишь два варианта подключения (HDMI 2.0 или miniDP) и не имеет какой-либо дополнительной функциональности вроде встроенных динамиков, USB-хаба и т. п. — практически абсолютный минимализм (впрочем, достаточный для подавляющего большинства пользователей, а также приятно для покупателя влияющий на ценник).
Рекомендованная стоимость монитора составляет 29 990 рублей, но даже сейчас, когда продажи только начались, его уже можно найти на прилавках некоторых магазинов на 3-4 тысячи рублей дешевле.
**Упаковка, комплект поставки, внешний вид**
Монитор поставляется в достаточно небольшой картонной коробке, лишь по длине ощутимо превосходящей габариты собственно монитора. На боковых гранях коробки предусмотрены вырезы для переноски. На коробке имеются достаточно подробные и наглядные пояснения относительно основных особенностей модели.
Комплект поставки Samsung S27R750QEI включает в себя:
Внешний блок питания выдает напряжение 19 В при силе тока до 3,1 А, что соответствует максимальной выходной мощности 59 Вт.
Вилка на блоке питания может поворачиваться на 90° для удобства подключения.
Кабель HDMI совмещен с удлинителем кабеля блока питания.
Подставка монитора оснащена струбциной, используемой для закрепления устройства на краю стола, и шарниром, позволяющим настроить высоту экрана над столом посредством наклона опорной колонны. По заверениям Samsung, шарнир выдерживает не менее 5000 перемещений.
Нижняя часть фиксирующего зажима может быть размещена в одной из трех позиций. В максимально удаленном положении ход фиксирующего винта составляет 90 мм, что позволяет установить монитор на весьма толстой столешнице.
Дисплей без подставки имеет форму прямоугольного параллелепипеда весьма небольшой толщины.
Толщина рамок сверху и по бокам минимальна. Нижняя часть, на которой размещены имя производителя и светодиодный индикатор питания, имеет шершавую рельефную поверхность. Впрочем, неактивные участки по краям матрицы довольно широки, что отчетливо видно на фото.
Задняя часть монитора закрыта шершавой гофрированной пластиковой панелью. По центру в нижней части размещены точки крепления и углубление для центральной колонны.
Место крепления центральной колонны оснащено предохранительными вырезами-ключами — установить экран на подставку можно только в одном — правильном — положении.
Не слишком аккуратно выглядящую область крепления экрана можно закрыть прилагающейся декоративной заглушкой.
Не обойден вниманием и кабель-менеджмент: кабели плотно встают в канавки на задней стороне центральной колонны. Канавок предусмотрено две — все равно большее число кабелей пропустить не получится (если, конечно, использовать комплектный кабель HDMI, обеспечивающий также подключение питания).
Внутри углубления в верхней части оборотной стороны монитора находится табличка с данными об изделии и размещены все разъемы: внешнего блока питания, HDMI 2.0, miniDP 1.2 и сервисный порт USB (предназначен только для обновления прошивки).
Из таблички спецификаций можно узнать, что наш монитор изготовлен в Китае в феврале 2019 года и относится к версии FA01.
единственный орган управления монитором, пятипозиционный мини-джойстик, размещен в нижней правой части задней панели и легко находится на ощупь при необходимости изменения настроек.
Качество сборки корпуса монитора, несмотря на его небольшую толщину, не вызывает нареканий: даже попытки скручивания не приводят к появлению хруста или скрипов.
Система же регулировки наклона вызывает неоднозначные впечатления. В самом высоком положении место, отнимаемое монитором у столешницы, минимально: всего 95 мм верхней опоры струбцины в глубину и еще меньше — в ширину. Для такого режима название серии мониторов Space — «пространство» — действительно оправданно.
Кроме того, монитор можно зафиксировать в любом положении по высоте. Но чем ниже опускается экран, тем больше места на столе становится недоступным. И в самом нижнем положении, когда экран буквально лежит на поверхности, занимаемое монитором место оказывается заметно больше, чем у монитора с подставкой более привычной конструкции.
|
|
|
|
|
|
|
Впрочем, наверняка найдутся и те, кому понравится более близкое расположение экрана к глазам, — в таком расположении есть и свои достоинства (начиная с того, что экран воспринимается как более крупный).
Поверхность экрана имеет полуматовое покрытие, неплохо справляющееся с бликами и при этом мало подверженное кристаллическому эффекту.
В целом облик монитора можно оценить как солидный и строгий, без явных декоративных элементов, — но при этом вполне приятный.
Организация и возможности меню рассматриваемой модели в целом уже хорошо знакомы нам по многим моделям мониторов Samsung последних лет.
При покачивании мини-джойстика вверх или вниз появляется меню с выбором быстрых действий: изменение яркости, контрастности и включение режима отдыха глаз (аналог «фильтра синего цвета» у других производителей). В большинстве случаев, если монитор уже настроен под потребности пользователя, большего и не понадобится.
Нажатие на джойстик вызывает меню выбора действий: основное меню (вверх), выбор входа (влево), настройки PiP/PbP (вправо) и выключение питания (вниз).
Основное меню включает пять разделов. Первый из них посвящен настройкам изображения. На первой странице можно выбрать один из четырех режимов MagicBright (пользовательский, стандартный, кино и режим динамической контрастности), настроить яркость, контрастность, четкость, цвета, выбрать режим MagicUpscale (заметно повышающий качество картинки при работе в разрешении ниже штатного).
Вторая страница раздела настроек изображения позволяет включить режим отдыха глаз, активировать игровой режим, выбрать настройки времени отклика и формат экрана.
Второй раздел посвящен настройкам PiP/PbP — доступен выбор размера, позиции, формата и контраста.
Следующий раздел содержит настройки экранного меню: прозрачность, позиция, язык (по умолчанию английский, но русская локализация вполне адекватна) и время отображения.
Системный раздел на первой странице содержит выбор из запуска самодиагностики, режима работы видеовходов DP и HDMI, включения режима эко, таймера выключения, режима ПК/AV и способа обнаружения источника сигнала.
На второй странице раздела остались настройки времени срабатывания клавиш, режим работы индикатора питания и сброс к заводским настройкам.
Здесь стоит отдельно остановиться лишь на режиме самодиагностики (остальное вполне понятно и привычно). При его активации выводится тестовое изображение, сохраненное в памяти монитора, что позволяет быстро определить «виновника» проблем с картинкой: если тестовая палитра отображается нормально — проблема, очевидно, на стороне кабеля или видеокарты, а не монитора.
Последний раздел выводит информацию о модели и серийном номере монитора, а также текущем режиме его работы.
В целом организацию меню можно назвать вполне удобной и логичной — неудивительно, что именно такой вариант настроек уже не первый год используется во многих моделях Samsung.
Доступ к сервисному меню обнаружить не удалось.
Монитор Samsung S27R750QEI был протестирован по несколько измененной методике при помощи колориметра X-Rite i1 Display Pro, программного комплекса Argyll CMS c графическим интерфейсом DisplayCAL и программой HCFR Colormeter. Все операции осуществлялись в Windows 10. Во время тестирования монитор был подключен по интерфейсу HDMI 2.0 комплектным кабелем к видеокарте GeForce GTX 1070 с актуальным на момент тестирования драйвером (активировано управление цветом при помощи стороннего ПО, прочие настройки — по умолчанию), частота обновления экрана в ходе тестирования составляла максимально доступные 144 Гц.
В соответствии с методикой мы измерим следующие параметры монитора:
Все описанные выше измерения проводились до и после калибровки. Во время тестов мы измеряем основные профили монитора: выставленный по умолчанию, sRGB (если доступен) и Adobe RGB (если доступен). Калибровка проводится в профиле, выставленном по умолчанию, за исключением особых случаев, о которых будет сказано дополнительно. Для мониторов с расширенным цветовым охватом мы выбираем режим аппаратной эмуляции sRGB, если он доступен. Перед началом всех тестов монитор прогревается в течение 3-4 часов, а все его настройки сбрасываются до заводских.
Также мы продолжим нашу старую практику публикации профилей калибровки для протестированных нами мониторов в конце статьи. При этом тестовая лаборатория 3DNews предупреждает, что такой профиль не сможет на 100% исправить недостатки конкретно вашего монитора. Дело в том, что все мониторы (даже в рамках одной модели) обязательно будут отличаться друг от друга. Изготовить две одинаковые матрицы невозможно физически, поэтому для любой серьезной калибровки монитора необходим колориметр или спектрофотометр. Но и «универсальный» профиль, созданный для конкретного экземпляра, в целом может поправить ситуацию и у других устройств той же модели, особенно в случае дешевых дисплеев с ярко выраженными дефектами цветопередачи.
При тестировании монитора мы использовали интерфейс HDMI 2.0 по причине отсутствия в комплекте кабеля DP-miniDP или хотя бы переходника miniDP-DP. Для настройки и калибровки применялся пользовательский режим как предоставляющий полный спектр настроек изображения монитора.
По умолчанию настройки основных параметров выглядят следующим образом:
В ходе ручной настройки (100 кд/м
2 и 6500 К) параметры приняли следующий вид:
Основные изменения произошли в ходе правок значений яркости и усиления RGB. При выборе гаммы оба альтернативных варианта 2 и 3 (чуть выше и чуть ниже референсной кривой соответственно) были значительно лучше установленного по умолчанию режима 1 (значительно выше референсной кривой), но цветовые отклонения у варианта 2 в тесте Argyll были несколько меньше — поэтому был выбран именно он. Четкость была понижена с изначальных 60 до 52 для устранения цветных контуров на черном тексте — хорошо известной проблемы многих мониторов Samsung.
⇡#
**Яркость белого, яркость черного, коэффициент контрастности**
Первоначальная проверка осуществлялась в установленном по умолчанию режиме «Польз.» с заводскими настройками основных параметров.
|
Яркость в меню, % |
Яркость белого (кд/м 2) |
Яркость черного (кд/м 2) |
Статическая контрастность (x:1)
|
100 |
320,2 |
0,1292 |
2480
|
90 |
293,3 |
0,1187 |
2470
|
80 |
266,2 |
0,1074 |
2479
|
70 |
239,7 |
0,0964 |
2485
|
60 |
214,9 |
0,0864 |
2487
|
50 |
189 |
0,0759 |
2491
|
40 |
163,3 |
0,0656 |
2489
|
30 |
138,1 |
0,0556 |
2486
|
20 |
114,5 |
0,0461 |
2486
|
10 |
88,4 |
0,0356 |
2483
|
0 |
66,8 |
0,027 |
2474
Результаты измерений оказались довольно неожиданными: монитор значительно превысил заявленный производителем показатель яркости (320 вместо 250 кд/м
2), но ощутимо «не дотянул» до заявленного уровня контрастности (чуть ниже 2500:1 при заявленных 3000:1). Впрочем, немало мониторов на матрицах типа VA имеют схожий коэффициент контрастности, а для IPS или TN такой уровень и вовсе недостижим.
Минимальная яркость белого цвета при стандартном уровне контрастности 75% составила 66,8 кд/м
2 — показатель приемлемый, но не идеальный. Некоторая часть пользователей — предпочитающих ночную работу без использования внешнего освещения — наверняка хотела бы получить меньшее значение минимальной светимости.
В рамках статьи мы ограничимся измерениями в установленном по умолчанию режиме при заводских настройках, после ручной настройки и после калибровки. Стандартный режим MagicBright, по нашим измерениям, не отличается по настройкам от пользовательского ничем, кроме изначально выставленного уровня яркости (50% вместо 100%). Прочие же предустановки изображения не только не направлены на точность цветопередачи, но и хорошо знакомы нам по ранее тестировавшимся моделям Samsung.
Цветовая температура при стандартных настройках сдвинута в сторону холодных оттенков и держится не слишком стабильно, опускаясь с 7330 до 6834 К.
Гамма-кривые при выбранной производителем предустановке изначально пролегают значительно выше эталонного уровня, при этом наибольшее отклонение демонстрирует синий цвет.
Цветовой охват монитора практически совпадает с синей вершиной треугольника sRGB и выходит за пределы двух остальных вершин.
При этом измерение по большему числу цветовых точек, чем предусмотрено в тесте HCFR Colormeter, показывает, что треугольник цветового охвата имеет немного неправильную форму. Граница цветового охвата от синей к красной вершине треугольника sRGB не является прямой линией.
Точка белого при настройках по умолчанию смещена достаточно далеко от целевого значения, а точки оттенков серого выстроились короткой и довольно плотной дугой.
Тест Argyll демонстрирует выходящие за номинальные допуски результаты во всех трех оцениваемых параметрах: расположении точки белого, среднем и максимальном отклонении DeltaE. Впрочем, трудно было ожидать иного при столь завышенных гамма-кривых, ошибке в установке точки белого и нестабильной цветовой температуре.
Тем не менее эти результаты можно существенно поправить, даже не выходя за предоставляемые меню монитора возможности. После внесения правок RGB Gain и выбора второй предустановки гамма-кривых цветопередача намного улучшается.
Цветовая температура ощутимо прибавила в стабильности и на большей части графика значительно приблизилась к целевому значению 6500 К.
Гамма-кривые RGB и серого заметно приблизились к эталонной.
Цветовой охват не претерпел существенных изменений по сравнению с настройками по умолчанию.
Точка белого приблизилась к целевому значению, правда, несколько увеличился разброс оттенков серого.
В тесте Argyll можно отметить значительное снижение как среднего, так и максимального отклонения DeltaE, а точка белого демонстрирует весьма незначительное отклонение от идеала. Хотя средний уровень отклонений DeltaE все же остался несколько выше номинального допуска теста (1,85 единицы при допуске 1,5), качество цветопередачи улучшилось весьма ощутимо.
Цветовая температура после калибровки вплотную приблизилась к целевому значению 6500 К.
Гамма-кривые после калибровки стали еще ближе к эталонным.
На цветовом охвате калибровка не сказалась: он остался точно таким же, как после ручной настройки.
После калибровки охват пространства sRGB составил 99,8%, а пространства AdobeRGB — 79,8%.
Положение точки белого почти такое же, как при ручной настройке, но оттенки серого расположились куда более плотной группой с меньшим отклонением от целевого значения.
По результатам теста Argyll все показатели уложились не просто в допустимые, а в рекомендованные значения — причем с хорошим запасом. Можно с уверенностью утверждать, что после калибровки монитор Samsung S27R750QEI отлично подходит для работы с цветом (конечно, если требования не выходят за рамки цветового пространства sRGB).
Равномерность подсветки дисплея проверялась после снижения яркости в центральной точке монитора до уровня 100 кд/м
2 и установки цветовой температуры ~6500 кельвин.
Картинка выше демонстрирует фотографию белого поля при определенной экспопоправке в ходе съемки (в темноте) и дальнейшей программной обработки для более наглядного представления равномерности подсветки.
Хорошо видно существенное снижение яркости вдоль боковин экрана (что, впрочем, вполне типично), тогда как падение яркости вдоль верхней и нижней грани экрана выражено менее ярко.
При измерении яркости по 45 точкам среднее отклонение от центральной точки при яркости 100 кд/м
2 составило 10,62%, а максимальное — 22,51%, что можно расценить как результат ниже среднего для 27-дюймового монитора. Наибольшие отклонения по яркости пришлись на левый и правый край экрана.
Отклонения цветовой температуры в единицах DeltaE0 также высоки: среднее составляет 3,2, а максимальное — 5,78 единицы. Впрочем, как минимум отчасти это можно объяснить довольно существенным отличием цветовой температуры в центральной точке от остальных: лишь в двух точках измерения из остальных 44 отклонения от нее оказались ниже 1,5 единиц.
Обе фотографии выше с разной коррекцией экспозиции были сделаны при полном отсутствии внешнего освещения. На первой из них можно увидеть все проблемные области монитора (представлены в усиленном виде), а на второй – как выглядит все это в действительности.
Можно отметить незначительную засветку по углам (наиболее выраженную в левой верхней области экрана нашего экземпляра монитора), но в целом картина на темном фоне вполне благоприятная.
Однако при приближении к экрану дает о себе знать Glow-эффект: фотография ниже сделана с меньшего расстояния (примерно соответствующего реальному расстоянию от экрана до глаз пользователя) при тех же правках, как и «действительная» фотография выше, но равномерность черного уже не так хороша.
⇡#
**Качество градиентов и скорость отклика**
Качество отображения градиентов не вызывает особых нареканий. После калибровки можно отметить появление нескольких более заметных переходов оттенков, но в целом заметного влияния на итоговый результат она не оказывает.
Традиционно для мониторов Samsung в наличии имеется три предустановки времени отклика. Разница между режимами Standard и Faster (установлен по умолчанию) незначительна и по длине шлейфов за движущимися объектами, и по уровню артефактов (практически отсутствующих).
В самом же агрессивном режиме компенсации времени отклика Fastest на светлых цветовых переходах уже очевидно наблюдаются артефакты разгона, так что эту настройку вряд ли можно порекомендовать к использованию.
Если сравнить S27R750QEI по скорости отклика матрицы с уже знакомым нам монитором Samsung C27JG50QQI, имеющим ту же диагональ, тип матрицы, частоту обновления и разрешение, то можно отметить несколько меньшую скорость рассматриваемой сегодня модели на темных переходах при сравнимых показателях в прочих ситуациях. В целом скорость отклика выше средней для матриц VA-типа, но для частоты обновления 144 Гц хотелось бы большего.
Пропуска кадров на частоте обновления 144 Гц при работе с видеокартой NVIDIA не зафиксировано.
При незначительных изменениях угла просмотра в горизонтальной плоскости картинка на экране практически не меняется — при таких условиях модель мало отличается от решений на основе IPS-матриц.
если увеличить угол до 35-45 градусов, то изображение становится менее контрастным, снижается насыщенность, высветляются тени, происходит цветовой сдвиг на некоторых оттенках. При взгляде сверху или снизу подобные изменения происходят при меньшем уровне отклонений от нормали, чем сбоку.
Так же как и большинство мониторов на основе VA-матриц, Samsung S27R750QEI подвержен эффекту Black Crush — резкому выцветанию изображения с существенными цветовыми сдвигами. Но при обычном для работы за ПК положении столкнуться с этим неприятным эффектом вряд ли получится: он явно проявляет себя лишь при взгляде под большими углами к плоскости экрана.
Glow-эффект у рассматриваемой модели выражен достаточно сильно: его, как уже упоминалось выше, можно ощутить даже при взгляде под прямым углом из обычного положения для работы за компьютером. Впрочем, действительно раздражающим он становится только при взгляде под большим углом к экрану.
⇡#
**Кристаллический эффект, Cross-hatching, ШИМ**
В мониторе используется матрица с полуматовой защитной поверхностью, которой не свойственен явно выраженный кристаллический эффект. Эффекту Cross-Hatching монитор также не подвержен.
По заявлению производителя, дисплей обладает Flicker-Free-подсветкой, что и было подтверждено в ходе наших тестов. При любом уровне яркости ШИ-модуляция не используется либо ее частота составляет несколько килогерц или даже десятки килогерц.
*С файлового сервера 3DNews.ru можно скачать цветовой профиль для этого монитора, который мы получили после калибровки.*
Рассмотренный нами сегодня монитор Samsung S27R750QEI является самым доступным предложением среди плоских мониторов с диагональю 27 дюймов, разрешением WQHD и частотой обновления 144 Гц, с матрицей, отличной от TN, — и уже одним этим заслуживает внимания при выборе. Среди «гнутых» моделей с таким набором параметров по-прежнему вне конкуренции уже не раз упомянутый по ходу статьи Samsung C27JG50QQI, доступный по еще более скромной цене. Но не всем нужен изогнутый экран, а у рассмотренной сегодня модели есть и иные преимущества: лучшая функциональность подставки и более широкий цветовой охват, что приближает ее к другому, уже не столь доступному решению Samsung — модели C27HG70QQI.
Высокая частота обновления делает монитор неплохим выбором для геймера (хотя, конечно, тех, кто рассматривает игру как работу, не слишком устроит время отклика и отсутствие технологий адаптивной кадровой синхронизации). После настройки (а лучше — калибровки) качество цветопередачи уже позволяет достаточно эффективно работать с цветом — но лишь в пространстве sRGB. Ценители сочной картинки вместо скучной естественной цветопередачи могут не заморачиваться настройкой и наслаждаться расширенным (но не очень сильно) относительно пространства sRGB цветовым охватом. В общем, по области применения перед нами вполне универсальная модель — не ставящая рекордов ни в одной номинации, но при этом неплохо подходящая практически для любого типа непрофессионального применения.
В первую очередь, пожалуй, модель интересна для любителей игр, желающих получить универсальный монитор с высокой частотой обновления экрана, но при этом не готовых отдать минимум 35 тыс. рублей за схожие модели на основе матриц IPS или смириться с цветопередачей и углами обзора мониторов на базе TN-матриц.
Определяющим же фактором для покупки или отказа от нее, как нам кажется, станет готовность потенциального пользователя найти общий язык с подставкой Samsung S27R750QEI — стильной, оригинальной и достаточно функциональной, но имеющей довольно серьезные ограничения (автору, например, для использования этого монитора дома пришлось бы менять стол). Но возможно, кто-то уже давно мечтает именно о такой?
**Достоинства:** **Недостатки:** **Может не устроить:** |
986,343 | Обзор и тестирование кулера Noctua NH-U12A: революционная эволюция | Австрийская компания Noctua со дня своего основания в далёком 2005 году тесно сотрудничает с австрийским же институтом передачи тепла и вентиляторов, поэтому практически на каждой крупной выставке достижений Hi-Tech представляет свои новые наработки в области систем охлаждения компонентов персональных компьютеров. Однако до массового производства эти системы охлаждения, к сожалению, добираются далеко не всегда. Сложно сказать, что тому виной, но компания радует поклонников своей продукции новинками довольно редко.
Однако в прошлом месяце Noctua всё же выпустила совершенно новый процессорный кулер. И хотя его название изменилось в сравнении с предшественниками всего на одну букву, Noctua NH-U12A выглядит как глоток свежего воздуха в серьёзно застоявшемся сегменте воздушного охлаждения CPU, где последние тенденции «развития» чаще всего ограничиваются подсветкой вентиляторов и прочих компонентов кулеров.
Давайте последовательно и детально разберём эту новинку и протестируем её в сравнении с конкурентами.
⇡#Технические характеристики и стоимость
Технические характеристики кулера мы приведём в таблице в сравнении с характеристиками его предшественника – модели Noctua NH-U12S.
|
Наименование технических характеристик |
Noctua NH-U12A |
Noctua NH-U12 S
|
Размеры кулера (В × Ш × Т), вентилятора, мм |158 × 125 × 112
|158 × 125 × 71
|(120 × 120 × 25, 2 шт.)
|(120 × 120 × 25)
|
Полная масса, г |1220
(760 – радиатор)
|755
(580 – радиатор)
|
Материал радиатора и конструкция |Никелированная башенная конструкция из алюминиевых пластин на 7 медных тепловых трубках диаметром 6 мм, проходящих сквозь медное основание
|Никелированная башенная конструкция из алюминиевых пластин на 5 медных тепловых трубках диаметром 6 мм, проходящих сквозь медное основание
|
Количество пластин радиатора, шт. |50
|50
|
Толщина пластин радиатора, мм |0,45
|0,40
|
Межрёберное расстояние, мм |1,8
|1,75
|
Расчётная площадь радиатора, см 2 |6 860
|5 570
|
Термическое сопротивление, °С/W |н/д
|н/д
|
Тип и модель вентилятора |Noctua NF-A12x25 PWM (2 шт.)
|Noctua NF-F12 PWM
|
Скорость вращения вентилятора, об/мин |450–2000 (±10%)
450–1700 (±10%) L.N.A.
|300–1500 (±10%)
300–1200 (±10%) L.N.A.
|
Воздушный поток, CFM |60,1 (макс.)
49,8 (макс.) L.N.A.
|55,0 (макс.)
43,8 (макс.) L.N.A.
|
Уровень шума, дБА |22,6 (макс.)
18,8 (макс.) L.N.A.
|22,4 (макс.)
18,6 (макс.) L.N.A.
|
Статическое давление, мм H 2O |2,34 (макс.)
1,65 (макс.) L.N.A.
|2,61 (макс.)
1,83 (макс.) L.N.A.
|
Количество и тип подшипников вентилятора |SSO2
|SSO2
|
Время наработки вентилятора на отказ, часов/лет |150 000 / >17
|150 000 / >17
|
Номинальное/стартовое напряжение вентилятора, В |12 / 4,5
|
12 / 4,4
|
Сила тока вентилятора, А |0,14
|0,05
|
Заявленное/измеренное энергопотребление вентилятора, Вт |1,68 / 1,51
|0,60 / н/д
|
Возможность установки на процессоры с разъёмами |Intel LGA115x/2011(v3)/2066
AMD Socket
AM2(+)/AM3(+)/AM4/FM1/FM2(+)
|Intel LGA775/115x/2011(v3)/2066
AMD Socket AM2(+)/AM3(+)/FM1/FM2(+)
|
Максимальный уровень TDP процессора, Вт |н/д
|н/д
|
Дополнительно (особенности) |Два вентилятора с ШИМ-управлением, два адаптера L.N.A, термопаста Noctua NT-H1 3,5 г
|Вентилятор с ШИМ-управлением, адаптер L.N.A, термопаста Noctua NT-H1 3,5 г
|
Гарантийный срок, лет |6
|6
|
Рекомендованная стоимость, $ |
99,9 |
65
Дизайн коробок, в которых поставляются кулеры Noctua, не менялся, пожалуй, с самого их появления на рынке. Небольшие изменения претерпела только цветовая гамма, но в целом коробки такие же, как и прежде. И Noctua NH-U12A не стал исключением: перед нами средних размеров упаковка, оформленная в коричневых и белых тонах.
Каждая из сторон упаковки заполнена той или иной полезной информацией, начиная с технических характеристик и ключевых особенностей и заканчивая гарантийными обязательствами. Нашлось место и блоку текста на русском языке. Можно сделать вывод, что Noctua считает российский рынок одним из приоритетных для себя.
В плане надёжности коробка также не вызывает вопросов. Внутри основной упаковки размещена разборная картонная оболочка, фиксирующая радиатор с вентиляторами.
Что касается аксессуаров, то они уложены в плоскую коробку с обозначением каждого компонента на её лицевой стороне.
Внутри можно найти усилительную пластину на обратную сторону материнской платы, две пары стальных направляющих, наборы винтов, втулок и шайб, переходники и инструкции, а также термопасту Noctua NT-H1 в шприце массой 3,5 грамма.
Вся продукция австрийской Noctua выпускается на Тайване. Системы охлаждения премиального сегмента сопровождаются шестилетней гарантией. Объявленная стоимость Noctua NH-U12A составляет 99,9 доллара США, и это весьма странный факт, поскольку даже флагманский NH-D15 с радиатором двухбашенного типа можно приобрести дешевле. Возможно, новинка эффективнее и тише своего старшего брата? Скоро всё узнаем.
Дизайн Noctua NH-U12A не претерпел изменений в сравнении с прежней моделью данного типа – NH-U12S. Из бросающегося в глаза — только вдвое увеличившееся количество вентиляторов и сами вентиляторы, а также слегка выросшая толщина кулера. В остальном перед нами всё тот же башенный кулер средневысоких габаритов с алюминиевым радиатором на тепловых трубках.
И всё же изменений в конструкции кулера более чем достаточно. Но прежде отметим, что высота и ширина кулера остались прежними: 158 и 125 мм соответственно. А вот толщина выросла с 71 до 112 мм, причём не только за счёт дополнительного вентилятора, поскольку толщина радиатора NH-U12A в сравнении с NH-U12S возросла с 41 до 58 мм.
Увеличился и вес кулера, теперь он составляет 1220 граммов, из которых на радиатор приходится 760 граммов. В прежней версии данной модели радиатор весил 580 граммов.
В целом конструкция кулера не изменилась. Перед нами – классическая «башня» с алюминиевым радиатором, зажатым как в тисках между двумя 120-мм вентиляторами.
Увеличившаяся толщина радиатора должна была препятствовать установке в ближайшие слоты на материнской плате модулей оперативной памяти с высокими радиаторами. Однако австрийские инженеры сдвинули радиатор вперёд по ходу движения воздушного потока, стараясь избежать данной проблемы. Этот хорошо видно при взгляде на кулер сбоку.
Здесь же отметим, что боковые стороны радиатора практически полностью закрыты загнутыми вниз концами рёбер.
Общее количество алюминиевых пластин в радиаторе равно 50. Каждое ребро плотно посажено на тепловые трубки, а все места их сопряжений пропаяны. Межрёберное расстояние составляет 1,75-1,85 мм, а толщина каждой пластины равна 0,45 мм. В целом можно сказать, что радиатор получился довольно плотным, но в торцах его пластин видны выступы и зубья, которые должны снизить сопротивление воздушному потоку вентиляторов и повысить эффективность работы радиатора на низких скоростях.
Размеры каждой пластины равны 120 × 58 мм, расчётная площадь радиатора – 6860 см
2. Это на 23,2% больше, чем у радиатора NH-U12S, но по-прежнему далеко от настоящих суперкулеров, площадь радиаторов которых составляет примерно 11000 см 2. Как NH-U12A планирует с ними соперничать, нам пока не понятно.
Кроме нового радиатора увеличенной площади, NH-U12A получил семь 6-мм тепловых трубок против пяти у NH-U12S. Они пронизывают радиатор с каждой его стороны двумя своеобразными овалами из шести трубок, а концы седьмой тепловой трубки стоят сразу следом за последней по движению воздушного потока трубкой.
Отметим, что три центральные тепловые трубки, на которые должна приходиться максимальная тепловая нагрузка, разведены друг от друга настолько, насколько это было возможно, да и следующая за ними пара тепловых трубок также находится на приличном удалении друг от друга.
Таким решением разработчики стремились обеспечить максимально равномерное распределение теплового потока по рёбрам радиатора. Также добавим, что в местах контакта тепловых трубок с пластинами видны 1,5-мм «горлышки» и следы аккуратной пайки.
В основании кулера лежит медная никелированная пластина с желобками под каждую тепловую трубку. Все трубки в этих желобках уложены с 0,5-мм расстоянием друг от друга, а минимальная толщина пластины под ними не превышает 2,0 мм. Разумеется, здесь также используется припой. Размеры контактной пластины основания равны 48 × 48 мм. Качество её обработки можно назвать эталонным.
Но самое главное, что контактная поверхность основания нашего экземпляра Noctua NH-U12A исключительно ровная. Однако выпуклость теплораспределителя нашего тестового процессора конструктивного исполнения LGA2066 не позволила получить идеальные отпечатки.
Новому радиатору – новые вентиляторы, решили в Noctua и вместо одного NF-F12 PWM у NH-U12S оснастили кулер парой не так давно вышедших NF-A12x25 PWM. Как это всегда бывает у австрийской компании, вентиляторы предельно технологичные и идеально исполненные. Они сочетают в себе девятилопастную крыльчатку коричневого цвета с серповидными лопастями и доброй дюжиной фирменных технологий Noctua, а также рамку цвета топлёного молока с коричневыми силиконовыми уголками.
Можно как угодно относиться к цветовой гамме вентиляторов Noctua, но нельзя не признать, что они всегда находятся в авангарде современных технологий. Не стали исключением и новые NF-A12x25 PWM, которые, помимо ранее внедрённых технологий, получили крыльчатку из нового жидкокристаллического полимера Sterrox повышенной плотности. Сделано это было для того, чтобы крыльчатка с течением времени не «растягивалась», поскольку у данной модели зазор между торцом крыльчатки и рамкой всего 0,5 мм. Это как минимум втрое меньше, чем у подавляющего большинства других вентиляторов, включая все предыдущие модели Noctua. Кроме того, данный инновационный материал меньше подвержен вибрациям, а значит, такие вентиляторы должны работать с более низким уровнем шума. Единственный минус NF-A12x25 PWM – очень высокая стоимость ($29,9), а раз таких вентиляторов у Noctua NH-U12A сразу два, то причина, по которой этот кулер стоит дороже других систем охлаждения с приставкой «супер», понятны.
Что касается технических характеристик, то скорость вращения вентиляторов, регулируемая широтно-импульсной модуляцией, должна лежать в диапазоне от 450 до 2000 об/мин, а при включении в цепь переходника L.N.A. верхняя граница скорости «срезается» до 1700 об/мин. Максимальный воздушный поток каждого вентилятора может достигать 60,1 CFM, статическое давление – 2,34 мм H
2O, уровень шума – 22,6 дБА.
В вентиляторах используются фирменные подшипники SSO2 с нормативным сроком службы 150 тысяч часов, или более 17 лет непрерывной работы. Помимо долговечности, вентиляторы ещё и экономичные: при заявленных в характеристиках 1,68 Вт на максимальной скорости каждый вентилятор потреблял не более 1,5 Вт, что для 2000 об/мин является выдающимся показателем.
Стартовое напряжение вентиляторов также оказалось низким и составило всего 4,5 В.
В целях минимизации передачи вибраций на радиатор по углам рамки каждого из вентиляторов установлены очень мягкие силиконовые уголки.
Сами вентиляторы закрепляются на радиаторе парой проволочных скоб.
А вот кабели вентиляторов в синтетической оплётке весьма короткие, их длина равна 195 мм. Этого хватит только для того, чтобы подключить вентилятор к ближайшему разъёму на материнской плате, а пара таких разъёмов в непосредственной близости от процессорного гнезда есть далеко не на каждой модели платы. Но это, пожалуй, единственное неудобство при установке и подключении вентиляторов Noctua NH-U12A.
Noctua NH-U12A совместим с процессорами Intel конструктивного исполнения LGA2011/2066/115x и процессорами AMD, выпускаемыми в формате Socket AM2(+)/AM3(+)/AM4/FM1/FM2(+). С учётом основания радиатора сравнительно большой площади и стоимости кулера странно не видеть в этом списке платформу AMD Socket TR4, но отметим, что для таких разъёмов у Noctua есть специальные модели кулеров.
Система охлаждения устанавливается с помощью фирменного крепления SecuFirm2, которым оснащается большинство моделей австрийской компании. Процедура установки на каждый поддерживаемый разъём подробно изложена в инструкции. Мы устанавливали кулер на материнскую плату с разъёмом LGA2066, для чего в отверстия опорной пластины сокета вворачиваются шпильки с двусторонней резьбой.
Затем на этих шпильках закрепляются две стальные пластины, фиксируемые гайками с накатанной головкой.
После чего радиатор устанавливается на процессор и с обеих широких сторон притягивается к этим пластинам подпружиненными винтами.
На этой стадии необходимо обеспечить равномерность прижатия радиатора к теплораспределителю процессора и не забыть про термопасту.
Расстояние от нижней пластины радиатора Noctua NH-U12A до материнской платы составляет 44 мм, а вентиляторы можно закрепить и повыше.
Но плюс Noctua NH-U12A заключается в том, что его радиатор смещён вперёд на тепловых трубках, поэтому на большинстве материнских плат кулер не должен помешать установке модулей памяти с высокими радиаторами. Хотя на платах с четырёхканальной памятью проблемы всё же возможны.
После установки на процессор высота кулера достигла 162 мм, поэтому он, в отличие от большинства суперкулеров, будет совместим со всеми корпусами системных блоков форм-фактора ATX.
Внутри корпуса системного блока Noctua NH-U12A выглядит необычно, подобрать ему соответствующий интерьер будет весьма непросто. Поэтому если дизайн корпуса и его комплектующих у вас не на последнем месте, то продукцию Noctua в этом плане вряд ли можно назвать идеальным вариантом.
⇡#
**Тестовая конфигурация, инструментарий и методика тестирования**
Оценка эффективности кулера Noctua NH-U12A и его конкурентов была проведена в закрытом корпусе системного блока следующей конфигурации:
Для оценки эффективности систем охлаждения частоту процессора на BCLK, равной 100 МГц, при фиксированном в значении 43 множителе и установленной на первый уровень стабилизации функции Load-Line Calibration мы зафиксировали на отметке 4,3 ГГц с одновременной установкой заранее подобранного напряжения в BIOS материнской платы в значении 1,072 В.
Напряжение VCCIO было выставлено на 1,100 В, а VCCSA – на 1,075 В. В свою очередь, напряжение модулей оперативной памяти фиксировалось на отметке 1,35 В, а её частота составляла 3,2 ГГц с таймингами 16-18-18-39 CR2. Кроме перечисленного, в BIOS материнской платы были внесены ещё несколько изменений, относящихся к разгону процессора и оперативной памяти
Тестирование было проведено в операционной системе Microsoft Windows 10 Pro версии 1809 (17763.379). Программное обеспечение, использованное для теста:
Полный снимок экрана во время проведения одного из циклов тестирования выглядит следующим образом.
Нагрузка на процессор создавалась двумя последовательными циклами Prime95. На стабилизацию температуры процессора между циклами отводилось по 10–12 минут. За окончательный результат, который вы увидите на диаграмме, принята максимальная температура наиболее горячего из десяти ядер центрального процессора в пике нагрузки и в режиме простоя. Кроме этого, в отдельной таблице будут приведены температуры всех ядер процессора, их усреднённые значения и дельта температур между ядрами. Температура в помещении контролировалась установленным рядом с системным блоком электронным термометром с точностью измерений 0,1 °C и с возможностью почасового мониторинга изменения температуры в помещении за последние 6 часов. Во время данного тестирования температура колебалась в диапазоне 23,4–23,6 °C.
Измерение уровня шума систем охлаждения проводилось электронным шумомером «ОКТАВА-110А» в период от ноля до трёх часов ночи в полностью закрытой комнате площадью около 20 м
2 со стеклопакетами. Уровень шума измерялся вне корпуса системного блока, когда источником шума в комнате являлся только сам кулер/СЖО и его вентилятор(ы). Шумомер, зафиксированный на штативе, всегда располагался строго в одной точке на расстоянии ровно 150 мм от ротора вентилятора. Системы охлаждения размещались на самом углу стола на пенополиуретановой подложке. Нижняя граница измерений шумомера составляет 22,0 дБА, а субъективно комфортный (просьба не путать с низким!) уровень шума кулеров при измерениях с такого расстояния находится около отметки 36 дБА. За условно тихий уровень шума мы принимаем значение 33 дБА.
Исходя из стоимости и позиционирования Noctua NH-U12A ($99,9), его эффективность и уровень шума мы сегодня сравним с показателями двух суперкулеров: Noctua NH-D15 ($89,95) и Phanteks PH-TC14PЕ ($74,99). Причём оба кулера мы протестировали с одинаковыми 150-мм вентиляторами Noctua NF-A15 PWM.
Добавим, что регулировка скорости вращения вентиляторов систем охлаждения производилась с помощью специального контроллера с точностью ±10 об/мин в диапазоне от 800 об/мин до их максимума с шагом 200 или 400 об/мин.
⇡#
**Результаты тестирования и их анализ**
⇡#Результаты тестирования эффективности систем охлаждения при разгоне процессора до 4,3 ГГц представлены на диаграмме и в таблице.
Стоит отметить, что новый Noctua NH-U12A держится молодцом на фоне двух суперкулеров. Правда, здесь нужно принимать во внимание тот факт, что скорость пары 120-мм вентиляторов этого кулера намного выше, чем пары 140-мм вентиляторов Noctua, используемых нами сегодня как на Noctua NH-D15, так и на Phanteks PH-TC14PЕ. Так, почти на 2000 об/мин NH-U12A уступает всего два градуса Цельсия лидеру в лице Phanteks и один градус Цельсия выигрывает у NH-D15 (в обоих случаях – на максимальных 1500 об/мин). При 1600 и 1400 об/мин он всё ещё способен соперничать с парой двухбашенных кулеров, но только если скорость их вентиляторов находится в диапазоне от 800 до 1200 об/мин. А вот в тихих режимах при 800 об/мин отставание Noctua NH-U12A от NH-D15 при тех же 800 об/мин достигает четырёх градусов Цельсия, а от PH-TC14PЕ – сразу восьми градусов Цельсия. Иначе говоря, для эффективной работы NH-U12A требуется хороший воздушный поток, либо кулеру уже начинает не хватать площади радиатора, на что мы сетовали ещё в описании новой системы охлаждения.
Теперь попробуем увеличить нагрузку, разогнав процессор до 4,4 ГГц при напряжении 1,118 В и уровне LLC Turbo.
О серьёзности нагрузки говорит и тот факт, что оба суперкулера не смогли справиться с охлаждением процессора на минимальных скоростях вращения двух больших, 150-мм вентиляторов. Да и сам герой сегодняшней статьи не смог обеспечить процессору стабильность на скоростях 800, 1000 и 1200 об/мин.
Температуры выросли, но общая картина не претерпела изменений. Noctua NH-U12A по-прежнему уверенно выглядит на 1990 и 1600 об/мин и готов предложить такой же уровень эффективности охлаждения, как и флагманский Noctua NH-D15. На 1400 об/мин он охлаждает процессор так же, как и NH-D15 на 1200 об/мин. Суперкулер Phanteks PH-TC14PЕ во всех режимах работы вентиляторов эффективнее их обоих на величину от двух до четырёх градусов Цельсия, и это при том, что регулярно используемые нами вентиляторы Corsair AF140 подходят радиатору PH-TC14PЕ ещё лучше, чем Noctua NF-A15 PWM, и позволяют дополнительно отыграть пару градусов Цельсия на сопоставимых скоростях. Поэтому мы продолжим использовать его и далее в качестве эталона воздушного охлаждения.
Как видим, по уровню шума оба суперкулера потерпели от Noctua NH-U12A сокрушительное поражение. Новые вентиляторы NF-A12x25 PWM способны работать на значительно более высоких скоростях при том же уровне шума. К примеру, на границе субъективного комфорта 36 дБА их преимущество перед парой Noctua NF-A15 PWM составляет более 500 об/мин (1300 против 790 об/мин), а на границе условной бесшумности 33 дБА оно составляет 470 об/мин (1190 против 720 об/мин). Более того, даже при максимальных 1990 об/мин пара NF-A12x25 PWM работает на 5,7 дБА тише, чем два больших NF-A15 PWM на 1500 об/мин. Узнав уровень шума кулеров, можно вернуться к результатам тестирования их эффективности охлаждения, по которым теперь становится ясно, что Noctua NH-U12A как минимум не менее эффективный кулер, чем флагманский Noctua NH-D15. Разумеется, никакого треска подшипников или призвуков работы электродвигателя в вентиляторах нет и в помине. Работают они очень мягко и тихо.
Несмотря на тот факт, что у нас не было возможности провести прямое сравнение нового Noctua NH-U12A с предшествовавшим ему NH-U12S, не нужно быть прорицателем, чтобы понимать, что это огромный шаг вперёд в плане как эффективности охлаждения, так и уровня шума. Теперь кулер, вписывающийся в формат 120-мм моделей и большинства корпусов системных блоков, способен демонстрировать такую же эффективность, как и флагманский Noctua NH-D15, зачастую выигрывая у него в уровне шума. Нет, мы не спешим присуждать данной модели приставку «супер», поскольку площадь радиатора у нее недостаточна для экстремальных нагрузок и достижения предельных частот при разгоне на воздушном охлаждении. Однако, получив семь 6-мм тепловых трубок и два новых вентилятора, ломающих стереотипные представления о комфортных оборотах для 120-мм «вертушек», Noctua NH-U12A однозначно входит в число лучших процессорных кулеров.
К сожалению, как это часто бывает, не обошлось и без недостатков. Главный из них – чрезмерно высокая стоимость системы охлаждения, составляющая 99,9 доллара США. Как мы уже упоминали в обзоре, львиная её доля приходится на новые вентиляторы Noctua NF-A15 PWM, каждый из которых стоит 29,9 доллара США. Поскольку на радиатор с креплениями и термопасту с упаковкой остаётся всего 40 долларов США, мы предложили бы маркетологам Noctua рассмотреть вариант реализации данной модели без вентиляторов, чтобы пользователи смогли существенно сэкономить. Кроме этого, на наш взгляд, кулеру не хватает крепления для AMD Socket TR4.
В остальном Noctua NH-U12A с его фантастическими вентиляторами можно назвать очередным шедевром австрийских инженеров. Единственное, что хотелось бы им пожелать, – выпускать свои новые системы охлаждения почаще. |
986,406 | Первые впечатления от OPPO Reno: смартфон под новым углом | OPPO Reno Standard Edition (или просто OPPO Reno) был представлен еще 10 апреля, поэтому его характеристики уже хорошо известны. Но мне удалось провести день с этим смартфоном перед его европейской презентацией – спешу отчитаться о своих первых впечатлениях одновременно с «мировым» анонсом.
Безусловно, главным событием этой презентации стал (точнее, на момент написания статьи «станет») анонс старших OPPO Reno – с 5G-модемом (как минимум год еще совсем неактуальным для России) и с 10-кратным гибридным зумом. Именно они должны как следует пошуметь, помелькать в заголовках и повысить узнаваемость бренда, с чем за пределами Китая по-прежнему дела обстоят не очень. А делать основные продажи должен как раз «обычный» OPPO Reno, или OPPO Reno Standard Edition. Позволю себе больше не называть его столь длинным и громоздким именем.
Серия Reno должна упростить представления о модельном ряде OPPO, пестрящем сегодня буквенными наименованиями: A, AX, RX и с единственным в своем роде флагманом Find X. Название Reno наводит на мысли то ли о французских автомобилях, то ли о городе в штате Невада – понять нельзя. Но это хотя бы запоминается – по крайней мере, пока не обросло теми же самыми цифро-буквенными индексами. А это неизбежно.
Смартфоны OPPO Reno не позиционируются компанией как флагманы – ни титульный аппарат, ни версии с 10-кратным зумом и 5G. Все это смартфоны верхнего среднего класса, конкуренты старшим Samsung Galaxy A, Xiaomi Mi 9/Mi MIX 3, грядущему Honor 20 и номерным OnePlus. Конкуренты как на подбор серьезные, и OPPO очень важно удержать цену в узде, а не как обычно. Российские цены стандартного Reno станут известны чуть позже, пока же известны китайские: от $450 за версию 6/128 Гбайт до $540 за версию 8/256 Гбайт. Российское представительство компании обещает, что цены у нас «будут приятными» — верится с учетом прошлого опыта с трудом, но если они будут приближены к этим цифрам (переведенным в рубли), то уже неплохо. Что же получает пользователь за эти деньги?
В OPPO Reno бросаются в глаза сразу две вещи. Во-первых, необычно оформлена задняя панель: объективы разных размеров, характерная полоска, необычный шарик, вызывающий приступ ностальгии по временам Sony Ericsson и помогающий не поцарапать объективы, когда вы кладете смартфон на спинку (он же способствует тому, чтобы не заляпывать их непрерывно пальцем, – это уже из личного опыта, так что шарик мне показался уместным).
Во-вторых, на лицевой панели нет ни челки, ни отверстия в экране – как и в Find X (а скорее – как в Vivo NEX/V15), фронтальная камера выезжает из корпуса, только не вертикально, а под углом, как лезвие из швейцарского ножа. Может, именно поэтому мировую презентацию смартфона OPPO решила провести в Швейцарии? Смотрится оригинально, работает, как и в Find X, хорошо – выдвигается примерно за полсекунды, за столько же убирается. К тому же реагирует на падения — в теории пострадать этот элемент при встрече с полом не должен. Занятная деталь – с обратной стороны выкидного модуля находится вспышка. Так что появляется на свет он в трех случаях: если вы хотите сделать автопортрет, если вы собираетесь разблокировать смартфон собственным лицом (да, эта система идентификации пользователя доступна) и если вы собираетесь снять что-то со вспышкой.
Селфи-камера здесь стоит вполне рядовая, что нетипично для OPPO – компания славится смартфонами, созданными специально для блогеров, нарциссов, да и просто для большей части современной молодежи. Но нет, здесь обычный 16-мегапиксельный модуль с оптикой, светосила которой составляет
*ƒ*/2,0. Пример селфи, снятого на OPPO Reno, – ниже.
Само собой, есть бьютификатор, можно размывать задний фон программными методами.
Основная камера – тоже достаточно скучная. Главный модуль – 48-мегапиксельный Sony IMX586 с оптикой с относительным отверстием
*ƒ*/1,7, дополнительный – 5-мегапиксельный, он отвечает только за более качественное размытие фона в портретном режиме. Увы, оптический стабилизатор отсутствует, равно как и оптический зум – при съемке можно увидеть иконку двукратного увеличения, но это работает старый добрый кроп, заметно влияющий на качество снимка. Пример – ниже.
К слову, такая же главная камера (хорошо знакомая по Xiaomi Mi 9, к примеру) устанавливается и в старший OPPO Reno – но там она соседствует с 13-мегапиксельной камерой-перископом и 8-мегапиксельным сверхширокоугольным модулем, так что по возможностям фотосъемки этот подфлагман стремится к Huawei P30 Pro (по качеству почти наверняка уступит).
Программное обеспечение камеры включает в себя как привычные трюки вроде подбора подходящих параметров при помощи нейросетевых вычислений («искусственного интеллекта») или того самого портретного режима, так и кое-какие фирменные фишки. К примеру, режим «усиление цветности», в котором смартфон очень старается выровнять цвета в кадре, сделать их равномерными, но, по первым ощущениям, просто повышает насыщенность по хитрым алгоритмам — как любой типичный AI-помощник. Более подробные выводы приберегу до полноценного обзора.
Другая особенность – фирменные фильтры, которые и названы в стиле VSCO (от R1 до R10), и выглядят более благородно, чем обычно. Пример – выше.
Само собой, 48-мегапиксельный сенсор выполнен по схеме Quad Bayer, то есть по умолчанию он снимает с разрешением в 12 мегапикселей, поэтому, чтобы получить снимок максимального разрешения, необходимо довольно глубоко лезть в настройки. Какого-то прорыва в качестве это, само собой, не дает.
К ночной съемке камера со светосильной оптикой, но без оптического стабилизатора приспособлена средне – сделать кадр не только несмазанный, но и с приличной детализацией тяжело. Тут мог бы помочь ночной режим со склейкой многокадровой экспозиции, но работает он, скажу прямо, совсем не как в Huawei P30 Pro или Google Pixel 3.
Аппаратная платформа OPPO Reno хорошо знакома по камерофону компании, вышедшему в конце прошлого года, RX17 Pro. Речь о Qualcomm Snapdragon 710 – платформе среднего класса, которая объединяет восемь вычислительных ядер Kryo 360 с тактовой частотой до 2,2 ГГц и графический ускоритель Adreno 616. Работает смартфон очень шустро, ощущения от повседневного (хорошо, в данном случае — однодневного) использования вполне «флагманские»: и между приложениями аппарат переключается шустро, и камеру открывает моментально, и с фото и видео работает без каких-либо задержек. Игровая производительность ограничена, но OPPO предлагает с этим бороться, запуская специальный игровой режим, в котором отключаются параллельные процессы и активируется какая-то особенная программная оптимизация, в том числе и заточенная под PUBG Mobile – с ее создателями OPPO работает напрямую. Не могу сказать, насколько все эти программные ухищрения хорошо работают, времени проверить не было. Опять же лучше подождать полноценного тестирования.
Оперативной памяти в OPPO Reno – 6 или 8 Гбайт, энергонезависимой – 128 или 256 Гбайт. Поддержки карт памяти не предусмотрено. Есть адаптеры беспроводной связи Wi-Fi 802.11ac (2,4/5 ГГц) и Bluetooth 5, приемник GPS/GLONASS и (аллилуйя!) модуль NFC – OPPO вслед за Vivo все-таки обратила внимание на потребности европейской и американской публики.
Дисплей в OPPO Reno не только почти безрамочный (занимает 93,1 % площади лицевой панели), но и снабжен AMOLED-матрицей: диагональ экрана составляет 6,4 дюйма, разрешение – 2340 × 1080 точек, соотношение сторон – 19,5:9. Дисплей вроде бы и яркий, цвета насыщенные, но на солнце работать со смартфоном не идеально комфортно – все видно, он не слепнет, однако изображение блеклое, явно не хватает режима повышенной яркости.
Аккумулятор тут установлен емкостью 3765 мА·ч. После полного дня со смартфоном, когда он в основном использовался в качестве фото/видеокамеры (за день было сделано 390 снимков), но так же было немного и соцсетей, и работы в браузере, батарея села на 50 %. Кажется, с автономностью у Reno дело обстоит неплохо, как и с быстрой зарядкой – Super VOOC с его двойной батареей и суммарными 50 Вт тут нет, зато есть «обычный» VOOC третьей итерации – 20-ваттный, смартфон с помощью штатного адаптера и кабеля можно зарядить примерно за полтора часа.
В OPPO Reno есть и экранный сканер отпечатков – оптический или ультразвуковой — не известно, но работает вполне неплохо. Это как раз вполне ожидаемое решение, сегодня экранными сканерами щеголяют все кому не лень. А вот сохраненный мини-джек – решение оригинальное. Влагозащиты при этом нет, что объясняется в первую очередь выдвижным элементом в корпусе.
Общие ощущения от OPPO Reno у меня очень хорошие – это шустрый смартфон с достаточно интересным дизайном, оригинальной конструкцией подвижного блока, приличной автономностью и неплохим (но не более того) качеством съемки. Конечно, особенного вау-эффекта он не производит, в отличие от своего собрата с камерой-перископом, но если OPPO рискнет и поставит на него цену в 32-33 тысячи рублей, может получиться очень неплохое предложение.
**Материал дополнен.**
Увы, цена оказалась заметно выше желаемой. OPPO будет продавать Reno за 39 990 рублей, а стартуют продажи где-то в конце мая. Точных дат нет, но предзаказы намечены на 10-16 мая.
И немного про OPPO Reno 10x Zoom, мировая премьера которого, как и ожидалось, состоялась сегодня. Этот смартфон получил три камеры с суммарным диапазоном фокусных расстояний 16-130 мм (в эквиваленте). При этом OPPO заявляет о диапазоне 16-160 мм, что и дает смартфону его название, но в приложении для съемки выбор идет между зумом 1x, 2x, а дальше 6x, несмотря на то, что оптика обеспечивает 5-кратное увеличение, но это именно гибридный зум. Впрочем, по самым первым впечатлениям, реализован он здесь едва ли не лучше, чем в Huawei P30 Pro. Модуль, обладающей большим разрешением (13 Мп против 8) и лучшей светосилой (
*ƒ*/3,0 против *ƒ*/3,4), работает в сочетании с главной, 48-мегапиксельной камерой здорово.
Сам смартфон внешне почти не отличается от обычного OPPO Reno, про который мы говорили выше, только на задней панели добавилась дополнительная камера, а дисплей стал больше – 6,6 дюйма против 6,4 дюйма. Соответственно, ради этого увеличилась и емкость батареи (4065 мА·ч), и выросли габариты.
Цена OPPO Reno 10x Zoom известна только европейская (799 евро), равно как и дата старта продаж (начало июня), про российскую цену и дату пока неизвестно ничего, в том числе и представителям компании. Тут очень важно, конечно, сделать свой смартфон дешевле Huawei P30 Pro, с которым он сможет соперничать только при преимуществе в цене. Технологически он это, в принципе, делает, хотя будет очень интересно сравнить эти гаджеты в деле. Когда это можно будет сделать — пока непонятно.
|
|
Но как минимум удивить и сделать по-настоящему интересную серию смартфонов у OPPO определенно получилось. |
986,418 | Days Gone — жизнь после других эксклюзивов. Рецензия | |
Жанр |Экшен
|
Издатель |Sony Interactive Entertainment
|
Разработчик |SIE Bend Studio
|
Дата выхода |26 апреля 2019 года
|
Возрастной ценз |от 18 лет
|
Платформы |PlayStation 4
|
Официальный сайт *Игра протестирована на * *PlayStation* * 4*
От очередного крупного эксклюзива Sony ждешь многого: запоминающейся истории, передовой графики, восхитительной актерской игры и множества номинаций на звание игры года в декабре. Так уж получилось, что все последние новинки для PlayStation 4 привлекали внимание высоким уровнем качества и пополняли список игр, ради которых стоит купить консоль. На фоне Horizon Zero Dawn с ее роботами-динозаврами, God of War с выдающейся режиссурой и Marvel’s Spider Man с ощущением полной свободы в большом городе Days Gone выглядела белой вороной. Опять зомби-апокалипсис (хоть здесь и не зомби, а зараженные, но не суть), опять унылый бородатый мужик в главной роли, опять открытый мир — все казалось каким-то скучным, серым и банальным.
Отчасти так и получилось — Days Gone действительно не привносит в жанр почти ничего нового, а некоторые ее элементы буквально кричат о том, что у студии Sony Bend недостаточно опыта для создания масштабной игры в открытом мире. Во время путешествия по тихоокеанскому Северо-Западу США постоянно сталкиваешься с проблемами, которых от эксклюзива ожидаешь меньше всего. Баги, корявое повествование, однообразие, плохая оптимизация на базовой PS4 — этого авторам избежать не удалось. При этом в Days Gone почему-то хочется возвращаться — интересно посмотреть, ради чего была проделана такая масштабная работа и сможет ли игра чем-то удивить. К счастью, сможет.
С какой стороны на Days Gone ни посмотри, видно, что разработчики старались и делали все, что было в их силах. Им удалось создать красивый мир, поделенный на несколько регионов, в каждом из которых своя погода и атмосфера. Когда проезжаешь по заснеженным горам, густым лесам и грязным равнинам, хочется нырнуть в фоторежим и поиграть с настройками камеры — игра выглядит очень живописно. Погодные явления тоже грех не похвалить — после дождя вы ездите на мотоцикле по залитым водой трассам, а снег не только покрывает одежду главного героя, но и ложится на трупы противников.
Жаль, что этот мир такой же пустой, как бензобак на мотоцикле протагониста после поездки от одного лагеря к другому. По большому счету, все эти просторы нужны лишь для путешествия из точки А в точку Б ради выполнения заданий — за пределами квестов тут нет почти ничего интересного. Можно отвлечься на поиски гнезд зараженных, которых в отдельно взятом поселении обычно по пять штук, но процесс довольно утомительный — вы бегаете по всей округе и прижимаетесь к каждой стенке в надежде, что персонаж отыщет гнездо и отметит его на мини-карте. Потом кидаете в определенную точку коктейль Молотова, побеждаете появившихся противников… и повторяете процесс раз за разом, пока запас бутылок не иссякнет.
Можно следить за мини-картой и смотреть, где появляются знаки вопроса, — обычно там найдется напуганный зараженными или взятый в заложники бедолага. Спасете его и сможете отправить в какой-нибудь лагерь — получите очки доверия (открывают новые товары в магазинах) или деньги (тратятся на эти самые товары и уникальны для каждого лагеря). Однако оно того не стоит — только бензин и патроны зря потратите. К тому же заложники зачастую забагованы — то анимация зациклится, то диалоговое окно не вылезет. Каких-то интересных случайных событий в духе Red Dead Redemption 2 тут нет. Максимум, что может случиться, — на вас устроят засаду и снайпер прострелит двигатель, придется отбиваться. Но это скорее раздражает, чем оживляет процесс. Сразу вспоминаются сидящие в каждом кусте наемники из Assassin’s Creed Rogue.
Из-за красивого, но унылого открытого мира страдает повествование. Сначала надо двигать на задание, потом из лагеря ехать куда-то минут пять, потом наверняка заставят возвращаться на прежнее место. В некоторых миссиях необходимо преодолевать большие расстояния, и даже беседы протагониста с его попутчиками зачастую не спасают — вы просто едете, прыгаете на трамплинах, которые дизайнеры расставили, чтобы хоть как-то вас развеселить, и время от времени сбиваете зазевавшихся врагов. Спустя несколько часов роскошные декорации приедаются, а недостатки игрового процесса проступают все заметнее.
Да и сами задания зачастую не блещут разнообразием: зачисти один лагерь, зачисти другой, обыщи местность, проследи за кем-то. Создатели Days Gone раздробили всю огромную историю, которая растянется минимум на 30 часов, на десятки сюжетных линий, связанных с теми или иными персонажами или событиями. После каждого завершенного поручения вам показывают, какую часть конкретной линии вы прошли, — если там 25 %, значит, впереди еще несколько заданий на ту же тему. Иногда они различаются, а иногда по пять раз предстоит заниматься одним и тем же. Одна из самых интересных (на первый взгляд) «сюжеток», связанная с прошлым протагониста, превращается в череду однотипных заданий со стелсом, которые нужно начинать заново в случае провала.
Не помогает и медленно разгоняющийся сюжет — на протяжении первых десяти часов практически ничего не происходит. В роли байкера и бывшего военного Дикона Сент-Джона мы попадаем в мир, переживший глобальную эпидемию, из-за которой бо́льшая часть человечества превратилась в так называемых фриков — зараженных, пытающихся загрызть любую живую душу. Не обошлось и без группировки обезумевших людей, принимающих тяжелые наркотики и называющих себя упокоителями, и агрессивных мутировавших животных. Условия, мягко говоря, не лучшие, но Дикона и его лучшего друга Бухаря простым апокалипсисом не напугать — они и за себя могут постоять, и беззащитным помочь.
Вот только поначалу не совсем понятно, какая у этих персонажей мотивация. Вы будете ездить от одного лагеря к другому, выполнять унылые поручения, выслушивать нытье Бухаря, которого в первой половине игры можно смело заносить в список самых бесполезных и раздражающих персонажей. И лишь через несколько часов, ближе к середине игры, начнется интересная история, ради которой захочется дойти до финала. Конечно, все равно придется мириться с неудачным дизайном многих заданий, часть из которых состоит из медленной ходьбы на протяжении десяти минут, а пустой мир ничем не заполнится, но все же история раскачается и увлечет не на шутку.
При этом сюжет искусственно затянут: выкинь из него треть миссий — и не изменится вообще ничего. Дикон готов браться за любую работу, выполнять любые капризы: он и цветочки соберет, и привезет MP3-плеер человеку, с которым общался два раза. Его постоянно дергают по рации и говорят «езжай туда, езжай сюда, ты мне нужен, у меня работа», — и он соглашается. Как такой мягкотелый помогайка вообще до сих пор жив в этом постапокалиптическом мире, непонятно. Ему приходится обыскивать каждую машину в поисках лома, который используется для ремонта мотоцикла, а также останавливаться у каждой заправки и судорожно искать канистры с топливом — бак пустеет очень быстро, даже если улучшить его у механика.
Это один из элементов выживания, добавленных в Days Gone, но следить за голодом и температурой тут не нужно. Достаточно лишь обшаривать каждый дом и каждый труп, собирая хлам вроде тряпок, бутылок, бинтов, банок и прочего. Из этого добра можно на ходу смастерить фугасы, коктейли Молотова, аптечки — всякие полезные предметы, которые спасут в трудную минуту. Очень быстро карманы под завязку набиваются всем необходимым. Нехватки никогда не испытываешь — удобно, что по прибытии на место с несколькими гнездами ты и собственные коктейли можешь истратить, и новые тут же создать.
Все это пригодится и в сражениях с ордами фриков, огромными стаями безумных зараженных, которые будут бежать в вашу сторону без остановки. Эти моменты действительно получились жуткими — со времен первого геймплейного ролика разработчики заметно улучшили искусственный интеллект монстров. Они не просто несутся сломя голову по прямой, а обходят вас, залезают в окна, разрушают хрупкие доски и при всем при этом пронзительно орут. Напряженная музыка в этих эпизодах однозначно указывает — одно неверное движение приведет к смерти. Приходится ставить ловушки, закидывать фриков гранатами, стрелять из пулемета — иначе сотни одуревших безумцев (которые кажутся тысячами) не одолеть.
Однако орды эти нужно искать самому — просто так они могут никогда и не встретиться, кроме как в паре сюжетных миссий. Фрики живут своей жизнью и периодически кочуют с места на место, поэтому с ними можно просто-напросто разминуться. Но если уж встретились, придется решать, стоит ли вступать с ордой в бой. Ресурсов нужно много, времени — тоже, а наградой станут тонна ушей на продажу в лагере (их торговцы всегда готовы купить в обмен на деньги и доверие) да оружие. Так что если сталкиваешься с этой массой и не удается уехать, можно готовиться к веселью, а в остальных случаях лучше с фриками не возиться.
Забавно, что «умны» фрики только в больших группах, а поодиночке что они, что обычные люди — тупые как пробки. Иногда противники не замечают вас даже в тех случаях, когда вы носитесь перед ними на корточках. А люди, вступившие с вами в бой, будут стрелять в одну и ту же точку и не двигаться, даже если вы уже давно сменили укрытие. Стрельба здесь не самая выдающаяся, но терпимая, особенно хороша ощутимая разница между оружием первого уровня и третьего или четвертого — оно и мощнее, и надежнее, и стабильнее. Ближний бой тоже удался, хотя очень странно наблюдать за тем, как Дикон вынужден наносить противнику с десяток ранений карманным ножичком, чтобы его одолеть. Но это, очевидно, сделано, чтобы вы искали биты и кувалды и модифицировали их с помощью гвоздей.
При всех недостатках Days Gone, в ней все равно приятно проводить время: выполнять дурацкие поручения, смеяться над погонями, в которых вы стреляете в противников с помощью автоприцеливания, улучшать отношения с главарями лагерей и покупать качественное оружие. Интересная история спасает положение, актерская игра великолепна, даже перевод на русский язык удался. Но все же лучше бы ей быть линейным приключением — в таком случае к технической стороне наверняка было бы намного меньше претензий.
От громкого эксклюзива для PlayStation 4 в последнюю очередь ждешь плохой оптимизации. Но с Days Gone что-то пошло не так — кадровая частота проседает регулярно. Во время езды на мотоцикле вообще возникает ощущение, что игра вот-вот развалится. И в некоторых случаях она действительно не выдерживает и «вылетает». В последнем лагере, в который вы прибудете по сюжету, производительность ухудшается даже при ходьбе. Да и во время сражений с ордой консоль начинает «покашливать», хотя, как ни странно, в эпизодах с сотнями фриков частота кадров уменьшается заметно реже, чем при езде по пустым улицам.
*******
Days Gone — неплохая игра, но ставить ее в один ряд с другими впечатляющими эксклюзивами для PlayStation 4 не получается. Если перетерпеть тоскливое начало, смириться с посредственным дизайном миссий и не ожидать чего-то оригинального от открытого мира, вы получите отличную историю с интересными персонажами, многие из которых не раз смогут удивить своими поступками. Поначалу игра казалась очередным банальным сопливым боевиком на тему постапокалипсиса, но Sony Bend все же нашла что рассказать. И рассказала — не без багов, не без проблем, но совсем уж безнадежным первый опыт студии на новом для нее поприще не назовешь.
**Достоинства:** **Недостатки:**
|
|
Красивые локации и здорово анимированные персонажи, в которых веришь. В графическом плане игра точно не разочаровала.
|
|
Затянутые поездки скрашивает отличная музыка. Озвучение в русской версии прекрасное, в английской — еще лучше.
|
|
Сюжетная кампания растянется минимум на 30 часов — она действительно огромная. Жаль, что разгоняется сюжет медленно, а среди заданий полно бредовых поручений с необходимостью ехать туда и обратно по пять минут. Но в итоге это того стоит.
|
|
Не предусмотрена.
|
|
Несмотря на баги, кошмарную оптимизацию, пустой открытый мир и спорный дизайн многих миссий, от Days Gone трудно оторваться. Спасибо отличным персонажам, за историями которых все интереснее наблюдать, даже когда вас просят собирать какой-то хлам на другом конце карты или зачищать очередной лагерь.
*Оценка: 6* *,0* */10* **Видео:** **Ссылки по теме:** |
986,432 | Бюджетный NVMe SSD против Samsung 860 EVO: обзор накопителя ADATA XPG SX6000 Lite | Как следует из статистики, которой охотно делятся ключевые производители твердотельных накопителей, поставки привычных 2,5-дюймовых SSD с интерфейсом SATA в процентном соотношении постепенно сокращаются, и на первый план выходят более прогрессивные продукты с интерфейсом NVMe. Пока ещё SATA-накопители удерживают лидерство в структуре продаж, но, по единодушному мнению, перелом должен произойти в течение этого года, и способствовать этому должно происходящее в настоящее время активное снижение цен на NVMe-модели.
То, что NVMe-накопители дешевеют сейчас заметно активнее, чем традиционные SATA SSD, совсем неудивительно. Изначально на скоростную продукцию, использующую для работы шину PCI Express, производители устанавливали дополнительные наценки. Теперь же от них приходится отказываться. По мере того как сегмент NVMe растет, в него приходит всё большее число игроков, не желающих упускать из сферы своего влияния перспективное направление и готовых при этом вести агрессивную борьбу. Однако сложившаяся ситуация такова, что бороться за внимание покупателей за счёт скорости или функциональности NVMe-продукции сегодня способны очень немногие. Лидирующие позиции в сегменте потребительских NVMe SSD с точки зрения скорости и функциональности прочно захватили предложения Samsung. Как мы уже неоднократно убеждались в тестах, пара из Samsung 970 PRO и 970 EVO Plus демонстрирует очень убедительное превосходство над любыми альтернативами, и ни крупным, ни мелким конкурентам южнокорейской компании не удаётся сконструировать сколь-нибудь близкие по быстродействию решения. В результате для большинства фирм не остаётся иного выхода, кроме как пытаться привлекать пользователей низкими ценами и ввязываться в ожесточённую ценовую войну.
Это, естественно, играет на руку покупателям. Характерной приметой сегодняшнего дня стало то, что среди всего многообразия NVMe SSD образовалось довольно значительное число предложений с ценами, более характерными для моделей с интерфейсом SATA. Простой пример: сейчас на прилавках магазинов представлено сразу несколько вариантов NVME-накопителей, которые дешевле популярной SATA-модели Samsung 860 EVO. И в их числе не только основанные на QLC 3D NAND решения в лице Intel SSD 660p и Crucial P1 — в этот список входят и SSD c трёхмерной TLC-памятью, использующие как урезанную шину PCI Express 3.0 x2 (например, Kingston A1000 и его подобия на базе контроллера Phison PS5008-E8), так и вполне полноценную PCI Express 3.0 x4 (например, Transcend MTE110S и аналоги на контроллере SMI SM2263XT).
Мы стараемся не упускать из вида подобные бюджетные, но при этом не урезанные по архитектуре NVMe SSD, которые обещают явно лучшее сочетание цены и производительности, чем у SATA-накопителей. И сегодня считаем необходимым обратить внимание на одну весьма любопытную новинку – ADATA XPG SX6000 Lite. Этот SSD – родственник рассмотренного нами недавно ADATA XPG SX6000 Pro, который произвёл весьма достойное впечатление на фоне прочих недорогих предложений с интерфейсом NVMe. Но теперь ADATA немного пошаманила с конфигурацией и предлагает примерно то же самое, но на заметные 15 % дешевле. Как так получилось — мы как раз и попробуем выяснить в этом обзоре. Ведь если верить заявлениям производителя, в новом ADATA XPG SX6000 Lite не изменился ни базовый контроллер, ни тип используемой флеш-памяти. И если это действительно так, то перед нами очень привлекательная модель: крайне доступный NVMe SSD для шины PCI Express 3.0 x4, основанный на качественной TLC 3D NAND и заведомо превосходящий по скоростным параметрам любые SSD с интерфейсом SATA.
Говоря о ADATA XPG SX6000 Lite, мы действительно частенько будем делать отсылки к XPG SX6000 Pro. Производитель не обманывает, когда говорит, что это близкие родственники. Оба накопителя базируются на одном и том же контроллере Realtek RTS5763DL и используют одинаковую трёхмерную 64-слойную TLC 3D NAND второго поколения производства компании Micron. Зачем же ADATA выпустила два (почти) одинаковых накопителя по разной цене и как ей удалось так серьёзно скинуть цену на модель Lite? Ответ на эти вопросы очень прост: в более дешёвой версии применена более дешёвая память, которая, с одной стороны, имеет более низкую градацию по качеству полупроводниковых кристаллов, а с другой – увеличенный до 512 Гбит объём кристаллов. Первое снижает ресурс, а второе – производительность. И вот так перед нами появляется XPG SX6000 Lite, на первый взгляд такой же, как XPG SX6000 Pro, но на самом деле – совершенно другой.
При этом, если говорить об архитектуре рассматриваемой новинки, то в адрес XPG SX6000 Lite сложно высказать какие-то особые претензии. Более того, на первый взгляд этот накопитель даже слишком хорош для того, чтобы быть одним из самых доступных NVMe SSD на рынке. Хотя контроллер Realtek RTS5763DL, служащий его основой, встречается в массовых моделях накопителей крайне редко, данный чип вполне достоин занимать это место.
В сущности, на бюджетность RTS5763DL указывает лишь одно – он лишён DRAM-контроллера, что исключает возможность реализации в накопителях на его основе традиционной буферизации таблицы трансляции адресов. Зато в нём поддерживается буферизация нетрадиционная, на основе технологии HMB (Host Memory Buffer). Это значит, что RTS5763DL в операционной системе Windows 10 способен использовать для своих нужд часть обычной оперативной памяти, которая доступна для него через режим DMA шины PCI Express. В части же остальных характеристик контроллер вполне типичен: он обладает четырьмя каналами для взаимодействия с флеш-памятью, поддерживает LDPC-кодирование для коррекции ошибок и использует четыре линии PCI Express 3.0 для включения в систему. Иными словами, его вполне можно сопоставлять с тем же SMI SM6263XT, на базе которого создаются многие привлекательные по цене NVMe SSD.
Тем не менее не стоит забывать: в XPG SX6000 Lite разработчики сэкономили на флеш-памяти. Увеличенный до 512 Гбит размер кристаллов TLC 3D NAND — это не так страшно, как QLC, но тем не менее негативное влияние данного фактора видно даже по паспортным характеристикам.
|
Производитель |
ADATA
|Серия
|
XPG SX6000 Lite
|Модельный номер
|ASX6000LNP‑128GT‑C
|ASX6000LNP‑256GT‑C
|ASX6000LNP‑512GT‑C
|ASX6000LNP‑1TT‑C
|Форм-фактор
|M.2 2280
|Интерфейс
|PCI Express 3.0 x4 – NVMe 1.3
|Ёмкость, Гбайт
|128
|256
|512
|1024
|
Конфигурация
|Микросхемы памяти: тип, интерфейс, техпроцесс, производитель
|Micron 64-слойная 512-Гбит TLC 3D NAND
|Контроллер
|Realtek RTS5763DL
|Буфер: тип, объем
|Нет
|
Производительность
|Макс. устойчивая скорость последовательного чтения, Мбайт/с
|1800
|1800
|1800
|1800
|Макс. устойчивая скорость последовательной записи, Мбайт/с
|600
|600
|1200
|1200
|Макс. скорость произвольного чтения (блоки по 4 Кбайт), IOPS
|100 000
|100 000
|180 000
|220 000
|Макс. скорость произвольной записи (блоки по 4 Кбайт), IOPS
|130 000
|170 000
|200 000
|200 000
|
Физические характеристики
|Потребляемая мощность: бездействие/чтение-запись, Вт
|Н/д
|MTBF (среднее время наработки на отказ), млн. ч
|1,8
|Ресурс записи, Тбайт
|60
|120
|240
|480
|Габаритные размеры: ДхВхГ, мм
|80 х 22 х 3,58
|Масса, г
|8
|Гарантийный срок, лет
|3
Если сопоставить характеристики ADATA XPG SX6000 Lite со спецификациями XPG SX6000 Pro, то сразу становится понятно, что дешевизна новинки будет прослеживаться во всех без исключения аспектах. Уменьшились даже задекларированные скорости, которые производители накопителей обычно пытаются завысить всеми возможными способами, учитывая и технологии SLC-кеширования, и максимально глубокую конвейеризацию запросов. Так, официальные показатели быстродействия при чтении потеряли 12-15 %, а при записи – 17-20 %.
То, что производительность уменьшилась из-за снизившейся степени параллелизма массива флеш-памяти (это вызвано переходом на более ёмкие кристаллы), легко увидеть и в снижении скоростей прямой записи, в обход SLC-кеша. Для того чтобы прояснить, каким образом в ADATA XPG SX6000 Lite работает технология ускоренной записи, мы провели традиционный эксперимент с непрерывным заполнением 512-гигабайтной версии SSD посредством последовательной записи. Его результаты можно увидеть на приведённом ниже графике.
SLC-кеширование у ADATA XPG SX6000 Lite работает по простому динамическому алгоритму — под запись в скоростном режиме используется вся доступная свободная память. Поэтому на чистый накопитель в SLC-режиме удаётся записать порядка 170 Гбайт (треть от общего объёма). Производительность при SLC-записи достигает 1,2 Гбайт/с, но затем она резко снижается примерно до 130 Мбайт/с, причём с очень сильным разбросом в моментальных показателях. Для сравнения: скорость массива флеш-памяти у XPG SX6000 Pro была на 20-25 % выше. Именно таким образом проявляется штраф, связанный с уполовиниванием параллелизма массива флеш-памяти у более дешёвой модели накопителя. В результате для того, чтобы заполнить 512-гигабайтную версию ADATA XPG SX6000 Lite целиком, потребуется потратить примерно 45 минут. И это очень долго: например, Samsung 970 EVO Plus аналогичного объёма можно полностью записать за 10 минут.
В то же время нужно заметить: динамическое кеширование хорошо тем, что оно максимально ограждает пользователя от встречи с истинной скоростью массива флеш-памяти в TLC-режиме. Если оставлять на накопителе достаточно свободного места, даже такой неторопливый SSD, как XPG SX6000 Lite, сможет обеспечить приемлемые скорости записи. Правда, есть и ещё одно «но». Поскольку этот накопитель лишён собственного DRAM-буфера и использует для буферизации таблицы трансляции адресов оперативную память системы, скорость XPG SX6000 Lite при работе с большими объёмами данных может снижаться ещё и по этой причине. Как показывает практика, заметное падение скоростных параметров у XPG SX6000 Lite (как и у XPG SX6000 Pro) происходит при случайных операциях с файлами или группами файлов общим размером свыше 4 Гбайт.
Иными словами, не стоит забывать, что ADATA XPG SX6000 Lite – это всё-таки бюджетный NVMe-накопитель, и если уж вы решили сэкономить, то придётся мириться с некоторыми особенностями. Причём подобных компромиссов в данном случае заметно больше, чем в случае с XPG SX6000 Pro. И речь не только о производительности. Например, более дешёвый вариант SSD отличается худшими условиями гарантии и более низким задекларированным ресурсом флеш-памяти. В то время как для XPG SX6000 Pro гарантийный срок составляет 5 лет, на Lite-версию даётся лишь сокращённая до трёх лет гарантия, совершенно не свойственная накопителям с интерфейсом NVMe, включая и модели на базе QLC-памяти. Кроме того, для XPG SX6000 Lite условиями гарантии разрешается лишь 480-кратная перезапись объёма накопителя, в то время как ADATA XPG SX6000 Pro за время эксплуатации можно полностью перезаписать 600 раз. Впрочем, как известно, подобные требования носят формальный характер и к практике имеют довольно отдалённое отношения.
Справедливости ради стоит отметить: в кое-чём ADATA XPG SX6000 Lite всё же превосходит версию XPG SX6000 Pro. Модельный ряд этой новинки включает четырёх представителей, а минимальная ёмкость SSD составляет всего 128 Гбайт. Однако производительность младших модификаций находится на очень низком уровне. 128-гигабайтная модель, где массив флеш-памяти работает в двухканальном режиме, вряд ли сможет порадовать своих владельцев превосходством над SATA SSD. Именно поэтому ёмкости XPG SX6000 Pro начинались с 256-гигабайтной отметки.
⇡#Внешний вид и внутреннее устройство
Для проведения тестирования мы воспользовались представителем модельного ряда ADATA XPG SX6000 Lite ёмкостью 512 Гбайт. С одной стороны, такая версия имеет вполне достаточную степень параллелизма флеш-памяти и обещает неплохую производительность, а с другой – стоит чуть более 5 тысяч рублей.
Первого же взгляда на этот SSD достаточно, чтобы понять, что это – действительно близкий родственник XPG SX6000 Pro. Как и Pro-накопитель, новый XPG SX6000 Lite не только представляет собой односторонний модуль в форм-факторе M.2 2280 с текстолитом чёрного цвета, но и оснащён аналогичным набором компонентов, распределённых по плате абсолютно тем же образом. Отличается лишь номенклатура микросхем флеш-памяти, коих на XPG SX6000 Lite 512 Гбайт оказалось две, а не четыре, как на более дорогом SSD.
Собственно, в этом и кроется главная характерная особенность XPG SX6000 Lite. Если в XPG SX6000 Pro применялись микросхемы, собранные самой ADATA из 256-гигабитных 64-слойных полупроводниковых кристаллов TLC 3D NAND, закупаемых у Micron, то теперь на микросхемах флеш-памяти красуется маркировка SpecTek. И это – явный знак, хорошо описывающий суть рассматриваемого накопителя, ведь SpecTek – дочерняя компания Micron, через которую американский производитель полупроводников, чтобы не пятнать свою репутацию, реализует продукцию с пониженными градациями качества. Впрочем, те чипы TLC 3D NAND, которые установлены на XPG SX6000 Lite, относятся к категории Full Spec for SSD (100%), то есть они предварительно протестированы и всё-таки признаны производителем пригодными для эксплуатации в составе твердотельных накопителей.
Каждая из микросхем флеш-памяти содержит внутри себя по четыре полупроводниковых кристалла TLC 3D NAND с увеличенной до 512 Гбит ёмкостью, и это значит, что четырёхканальный контроллер Realtek RTS5763DL в полуторабайтном накопителе имеет возможность пользоваться лишь двукратным чередованием устройств в каналах. Именно поэтому в модельном ряду XPG SX6000 Lite производительность с ростом объёмов увеличивается вплоть до максимальной версии SSD объёмом 1 Тбайт.
Вся элементная база ADATA XPG SX6000 Lite помещается в три микросхемы. Помимо флеш-памяти на плате присутствует ещё и базовый контроллер Realtek, а больше никаких дополнений и не требуется. На плате остаются пустые «посадочные площадки» под дополнительные чипы флеш-памяти, но они задействуются исключительно в старшей модификации. Привычная же микросхема динамической памяти тут не нужна вообще, поскольку рассматриваемый SSD опирается на безбуферную архитектуру и технологию HMB.
Хотя XPG SX6000 Lite и относится к числу наиболее доступных NVMe SSD, что находит прямое отражение в его аппаратной конструкции, ADATA неожиданно уделила определённое внимание теплоотводу. В комплекте с SSD поставляется алюминиевая теплораспределительная пластинка с клеевым слоем, которую пользователь при желании может прикрепить на поверхность микросхем.
Правда, её небольшая толщина и гладкий профиль вряд ли смогут обеспечить высокую эффективность теплоотвода, но даже такой вариант всё равно лучше, чем ничего.
С сервисным программным обеспечением у ADATA дело обстоит далеко не лучшим образом. Фирменная утилита для накопителей компании существует, но развивается она крайне вяло, а её возможности и интерфейс оставляют желать лучшего. Более того, целый ряд пользователей, активировавших функции масштабирования интерфейса в Windows, вообще ей воспользоваться не смогут.
Тем не менее базовую функциональность утилита ADATA SSD Toolbox всё-таки предоставляет.
Так, помимо выдачи полной диагностической информации о SSD, ADATA SSD Toolbox позволяет провести проверку флеш-памяти накопителя, отослать на него пакет команд TRIM или выполнить автоматическую настройку параметров операционной системы (отключение Superfetch, Prefetch и дефрагментации).
Также через ADATA SSD Toolbox можно произвести обновление микропрограммы и выполнить процедуру Secure Erase.
Кроме того, после регистрации приобретённого XPG SX6000 Lite на сайте производителя можно получить ключ к популярной программе для клонирования данных Acronis True Image HD 2013/2015.
Тестирование проводится в операционной системе Microsoft Windows 10 Enterprise x64 Build 16299, корректно распознающей и обслуживающей современные твердотельные накопители. Это значит, что в процессе прохождения тестов, как и при обычном повседневном использовании SSD, команда TRIM поддерживается и активно задействуется. Измерение производительности выполняется с накопителями, находящимися в «использованном» состоянии, которое достигается их предварительным заполнением данными. Перед каждым тестом накопители очищаются и обслуживаются с помощью команды TRIM. Между отдельными тестами выдерживается 15-минутная пауза, отведённая для корректной отработки технологии сборки мусора. Во всех тестах используются рандомизированные несжимаемые данные.
Раздел, в пределах которого тестируется скорость операций, имеет размер 32 Гбайт, а продолжительность каждого теста составляет сорок секунд. Такие параметры, в частности, позволят получать более релевантные результаты для тех SSD, которые используют различные технологии SLC-кеширования.
Используемые приложения и тесты:
С выходом процессоров Coffee Lake Refresh мы решили в очередной раз обновить тестовую систему, которая используется для измерения производительности NVMe-моделей SSD. Всё-таки такие накопители в первую очередь покупают энтузиасты, переходящие на новые платформы, и поэтому логично использовать в тестовых испытаниях новейшую платформу.
В итоге, в качестве тестовой платформы используется компьютер с материнской платой ASRock Z390 Taichi, процессором Core i7-9700K со встроенным графическим ядром Intel UHD Graphics 630 и 8 Гбайт DDR4-2666 SDRAM. Накопители с интерфейсом M.2 во время тестирования устанавливаются в соответствующий слот материнской платы, подключенный к чипсету. Накопители в виде карт PCI Express устанавливаются в слот PCI Express 3.0 x4, также работающий через чипсет.
Объём и скорость передачи данных в бенчмарках указываются в бинарных единицах (1 Кбайт = 1024 байт).
Отдельное пояснение следует сделать относительно закрытия процессорных уязвимостей Meltdown и Spectre. Существующие патчи заметно снижают производительность твердотельных накопителей, поэтому измерения проводятся с деактивированными «заплатками» OC, которые закрывали бы эти уязвимости.
⇡#Список участников тестирования
ADATA XPG SX6000 Lite – один из самых доступных (если не самый доступный) твердотельных накопителей с интерфейсом NVMe. Поэтому в этом тесте мы решили собрать максимально разношёрстную компанию соперников, чтобы оценить, имеют ли право на жизнь такие предложения. Мы сопоставим XPG SX6000 Lite с производительным Samsung 970 EVO Plus, со средними NVMe-накопителями класса WD Black SN750, с прочими NVMe SSD начального уровня вроде Intel SSD 660p и Kingston A1000, а также с популярным SATA-накопителем Samsung 860 EVO, который стоит даже немного больше сегодняшнего главного героя.
Полный список протестированных моделей имеет следующий вид:
Используемые версии NVMe-драйверов:
⇡#Производительность последовательного чтения и записи
Уполовинивание параллелизма массива флеш-памяти, которое произошло в ADATA XPG SX6000 Lite по сравнению с XPG SX6000 Lite, в первую очередь должно было нанести удар по линейным скоростям. Именно это мы и видим на графиках. Скорость последовательного чтения новинки приближается к показателям участвующего в тестах SATA-накопителя, и лишь скорость последовательной записи даёт какие-то поводы для оптимизма. Но стоит иметь в виду, что в этом случае хорошие показатели обеспечивает динамическое SLC-кеширование, но чтобы оно могло работать с высокой эффективностью, на накопителе должен оставаться достаточный резерв свободного места.
⇡#Производительность произвольного чтения
Мелкоблочные операции с большими объёмами данных по понятным причинам вызывают проблемы у накопителей, не имеющих DRAM-буфера. ADATA XPG SX6000 Lite в качестве компенсации предлагает технологию HMB, но он резервирует относительно небольшую область в системной памяти под свои нужды, и при серьёзных нагрузках её не хватает. В результате мы видим, мягко говоря, невысокие скоростные показатели XPG SX6000 Lite по меркам современных NVMe-решений. Этот SSD проигрывает и основанному на QLC-памяти Intel SSD 660p, и даже SATA-накопителю Samsung 860 EVO. Попутно стоит заметить, что похожая по аппаратной платформе модель ADATA XPG SX6000 Pro смотрится в тестах произвольного чтения заметно увереннее. Поэтому к перечисленным недостаткам дизайна рассматриваемой новинки следует добавить и использование 512-гигабитных устройств TLC 3D NAND, случайный доступ к ячейкам в которых порождает существенно более высокие задержки по сравнению с 256-гигабитными устройствами флеш-памяти.
⇡#Производительность произвольной записи
Как мы уже могли убедиться, с записью у ADATA XPG SX6000 Lite никаких проблем нет. SLC-кеширование отрабатывает все возложенные на него функции на все 100 процентов, в результате чего скорость этого SSD при мелкоблочной записи и при отсутствии очереди запросов вполне даже может приближаться к показателям лидеров. Впрочем, с ростом глубины очереди производительность масштабируется крайне плохо, и даже небольшая степень конвейеризации запросов приводит к тому, что XPG SX6000 Lite сразу перемещается в нижнюю часть диаграммы.
⇡#Производительность при смешанной нагрузке
ADATA XPG SX6000 Lite не демонстрирует никаких особых достижений и при смешанной нагрузке. И это приводит нас к эмпирическому выводу о том, что бюджетный накопитель может предложить достойную производительность, только если экономия в его конструкции затрагивает лишь какую-то одну составляющую. В XPG SX6000 Pro разработчики ADATA сэкономили за счёт упразднения DRAM-буфера, тем не менее в итоге получился сравнительно неплохой SSD — с учётом его цены. Но в XPG SX6000 Lite к экономии на динамической памяти добавилась ещё и экономия на флеш-памяти, и это повлекло за собой куда более заметное снижение скоростных показателей.
Впрочем, сказать, что ADATA XPG SX6000 Lite – фатально медленный твердотельный накопитель, было бы всё же несправедливо. Да, он проигрывает по производительности большинству альтернативных вариантов, но при этом всё равно оказывается быстрее, чем один из самых производительных SATA SSD, Samsung 860 EVO. Иными словами, определённое право на существование у ADATA XPG SX6000 Lite всё же есть, особенно если вспомнить о его дешевизне.
⇡#Производительность в CrystalDiskMark
А вот если судить по результатам синтетического теста CrystalDiskMark, то ADATA XPG SX6000 Lite и XPG SX6000 Pro кажутся очень быстрыми накопителями. И это вполне закономерно, поскольку данный бенчмарк работает в пределах SLC-кеша и оперирует сравнительно небольшим объёмом данных, который не требует проведения интенсивной работы с таблицей трансляции адресов.
⇡#Производительность в PCMark 8 Storage Benchmark 2.0
>На диаграмме выше вы можете увидеть некое обобщение результатов, полученных нами ранее в тестах IOMeter. PCMark 8 показывает, что при реальном использовании в приложениях ADATA XPG SX6000 Lite будет всё-таки быстрее добротного SATA-накопителя, но полноценные и качественно скроенные NVMe SSD способны предложить почти вдвое более высокую скорость.
Интегральный результат PCMark 8 нужно дополнить и показателями производительности, выдаваемыми накопителями при прохождении отдельных тестовых трасс, которые моделируют различные варианты реальной нагрузки. Дело в том, что при разноплановой нагрузке флеш-накопители могут вести себя каким-либо особым образом.
В любом из приложений, работу в которых моделирует PCMark 8, ADATA XPG SX6000 Lite оказывается быстрее SATA-накопителя Samsung 860 EVO. Исключений из этого правила нет. Да и более дорогой XPG SX6000 Pro оказывается быстрее младшего собрата далеко не всегда — по каким-то причинам дешёвый накопитель обеспечивает лучшую производительность в Adobe Photoshop.
⇡#Производительность при реальной нагрузке
При файловых операциях ADATA XPG SX6000 Lite выглядит достаточно неплохо, по крайней мере, к аутсайдерам его отнести невозможно. Он не только обходит по скорости участвующий в сравнении SATA-накопитель, но и оказывается явно производительнее, чем Kingston A1000 или Intel SSD 660p – бюджетные NVMe-решения, которые к сегодняшнему дню завоевали достаточно широкую популярность в кругах экономных покупателей.
Как показывают результаты, ADATA XPG SX6000 Lite вполне способен играть роль системного накопителя, с которого будут стартовать операционная система, рабочие программы и игры. Безусловно, его нельзя отнести к производительным вариантам, но, несмотря на низкую цену, он справляется с этой ролью явно лучше, чем Samsung 860 EVO с его SATA-интерфейсом, и к тому же опережает бюджетные NVMe-накопители Kingston A1000 и Intel SSD 660p.
Для накопителей, лишённых DRAM-буфера, проверку падения производительности при долговременных случайных операциях проводить не получается. Они крайне плохо обрабатывают операции мелкоблочной записи, и их быстродействие оказывается столь низким, что на полное заполнение полутерабайтного SSD потребовалось бы потратить десятки часов. Так что вопрос падения производительности после исчерпания свободного места в массиве флеш-памяти придётся вынести за скобки.
Впрочем, невелика потеря. Данный тест имеет синтетическую природу, и с точки зрения практической работы с SSD он мало что значит, ведь при обычном копировании файлов или при установке программного обеспечения операции носят не случайный, а последовательный характер.
Но проконтролировать, насколько хорошо у накопителя работает сборка мусора в автономном режиме и после подачи команды TRIM, мы всё-таки должны. Для исследования этого вопроса после заполнения SSD данными и их последующего удаления с выключенной поддержкой TRIM мы выжидаем 15 минут, в течение которых SSD может попытаться автономно восстановиться за счёт сборки мусора, и замеряем быстродействие. Затем на накопитель принудительно подаётся команда TRIM — и скорость измеряется ещё раз, что позволяет убедиться в способности SSD с помощью TRIM полностью восстанавливать свою паспортную скорость.
В этом тесте ADATA XPG SX6000 Lite проявляет себя достаточно обыденно. После подачи команды TRIM он полностью восстанавливает свою изначальную производительность, как это и должно быть. Автономная же сборка мусора без TRIM у этого накопителя не работает, что, впрочем, совершенно типично для накопителей с интерфейсом NVMe.
Ещё один важный момент, связанный с TRIM, касается того, насколько большую нагрузку на контроллер вызывает обработка этой команды. Дело в том, что происходит это не так уже и незаметно для пользователя. Когда операционная система передаёт накопителю информацию о том, что какие-то сектора выводятся файловой системой из обращения, контроллер SSD должен консолидировать эти сектора и очистить освобождающиеся страницы флеш-памяти для выполнения будущих операций. Такая перегруппировка требует перезаписи и очистки областей памяти, и это не только занимает заметное время, но и серьёзно нагружает контроллер работой.
В результате после удаления с диска больших объёмов данных владельцы SSD часто сталкиваются с эффектом временного замедления или даже с «фризами» накопителя. На практике это может вызвать серьёзный дискомфорт, ведь никто не ожидает, что SSD, основным достоинством которого является моментальная реакция на внешние воздействия, будет замирать на несколько секунд. Поэтому мы добавили в методику дополнительное исследование, которое позволяет отслеживать, насколько незаметно для пользователя тот или иной SSD обслуживает команды TRIM. Способ проверки очень прост: сразу после удаления крупного файла — объёмом 32 Гбайт — мы проверяем, как накопитель справляется с операциями произвольного чтения данных, контролируя как скорость чтения, так и время ожидания, которое проходит с момента каждого запроса данных до ответа накопителя.
После удаления файла объёмом 32 Гбайт ADATA XPG SX6000 Lite впадает в глубокую задумчивость примерно на три-четыре секунды. В течение этого срока он практически полностью перестаёт реагировать на внешние воздействия. Время отклика вырастает на два порядка, а производительность падает до нуля даже при чтении. Это может послужить ещё одним подтверждением тезиса о том, что такой SSD будет не слишком хорош в роли диска, на котором хранятся активно используемые файлы. Удел подобных решений – быть хранилищем для игр и программ, при работе с которым преобладают сценарии типа WORM (Write Once, Read Many).
⇡#Проверка температурного режима
Проблема перегрева остро стоит для высокоскоростных NVMe-накопителей в форм-факторе M.2. Однако ADATA XPG SX6000 Lite – это гораздо более простой продукт с производительностью заметно ниже, чем предлагают флагманы. Означает ли это, что такой SSD не нуждается в каком-то особом охлаждении?
Для практической проверки мы последили за температурным режимом тестового накопителя, когда нагрузка на него состояла из последовательных операций с глубиной очереди запросов в 4 команды. Измерения проводились на открытом стенде, причём SSD не обдувался дополнительно воздухом.
При чтении никаких проблем с нагревом не возникает. В простое контроллер Realtek RTS5763DL имеет температуру порядка 45-50 градусов, а в случае интенсивных операций чтения температура поднимается всего на 3-4 градуса.
Но при записи ситуация с температурным режимом заметно усугубляется. Примерно за полторы минуты непрерывных операций контроллер прогревается почти до 100 градусов, что, впрочем, к троттлингу всё равно не приводит. Возможность долговременной эксплуатации накопителя в таком режиме вызывает вполне обоснованные сомнения, но, чтобы привести этот накопитель в высокотемпературное состояние, требуется записать на него без перерывов более 100 Гбайт данных. В реальных условиях такое вряд ли возможно, особенно если учесть, что рост температуры происходит лишь при записи в SLC-кеш, размер которого уменьшается по мере заполнения SSD данными.
Иными словами, в обычных пользовательских сценариях с преобладанием операций чтения температурный режим ADATA XPG SX6000 Lite никакого беспокойства не вызывает.
Главный вопрос, проходивший рефреном насквозь всего исследования, заключался в том, имеют ли право на существование NVMe-накопители с предельно низкой ценой. Появление этого вопроса именно сейчас вполне естественно, ведь протестированная новинка в лице ADATA XPG SX6000 Lite – яркий пример именно такого предложения. Она не просто является одним из самых дешёвых NVMe SSD на рынке, интерес к ней во многом подогревается ещё и тем, что стоимость у такого накопителя даже ниже, чем у многих популярных моделей с SATA-интерфейсом.
И как вяснилось, подробно познакомиться с ADATA XPG SX6000 Lite мы решили совершенно не напрасно. Тестирование показало, что такое решение действительно способно стать достойной альтернативой для SATA SSD, с которыми оно играет в одной ценовой категории. XPG SX6000 Lite почти всегда работает быстрее одного из лучших SATA SSD, Samsung 860 EVO. Причём в среднем преимущество в производительности достигает достаточно заметного 40-процентного уровня, что является очень убедительным аргументом в пользу бюджетного NVMe SSD.
Правда, лучшее быстродействие и более прогрессивный интерфейс – это лишь одна сторона медали. На фоне добротных SATA-моделей у XPG SX6000 Lite есть и существенные изъяны. Главный из них касается гарантии и ресурса. С целью удешевления в этом накопителе применена далеко не самая качественная TLC-флеш-память, поэтому производитель даёт на XPG SX6000 Lite лишь трёхлетнюю гарантию, ограниченную к тому же сравнительно жёсткими рамками по объёмам разрешённой перезаписи. Иными словами, за цену добротного и высококачественного SATA SSD компания ADATA предлагает NVMe-модель, собранную из немного подозрительных компонентов. Однако для работы в среде с щадящими нагрузками такой накопитель наверняка подойдёт, особенно, если на нём не предполагается хранить какую-либо критически важную информацию. Исключительно выгодное соотношение цены и производительности – очень сильный довод, который заставит многих отринуть все сомнения по поводу надёжности.
Справедливости ради стоит упомянуть, что ADATA XPG SX6000 Lite – не единственный NVMe-накопитель с подобной ценой. В том же сегменте представлены и альтернативные предложения, например накопители на базе QLC 3D NAND, такие как Crucial P1 и Intel SSD 660p, или решения на базе платформы Phison E8, такие как Kingston A1000, Apacer AS2280P2, Patriot Scorch и тому подобные. Но XPG SX6000 Lite на их фоне смотрится всё же поинтереснее. Во-первых, вариант ADATA основывается на полноценной 64-слойной TLC 3D NAND, а во-вторых, использует скоростную шину PCI Express 3.0 x4, что в сумме обеспечивает лучший набор потребительских качеств.
В то же время, если вы всё-таки решите остановить свой выбор на ADATA XPG SX6000 Lite, то должны осознавать, что данная модель по своим скоростным характеристикам весьма далека от привычных NVMe SSD. Увеличив выделенный на накопитель бюджет на 25-35 процентов, можно замахнуться на покупку ADATA XPG SX8200 Pro или WD Black SN750 – накопителей более высокого класса, производительность которых будет выше как минимум в полтора раза. |
986,543 | Обзор системы жидкостного охлаждения Deepcool Captain 240 Pro с технологией Anti-Leak | Необслуживаемые системы жидкостного охлаждения для центральных процессоров медленно, но верно отвоёвывают свою долю рынка. Их преимущества перед воздушными кулерами заключаются в более высокой эффективности охлаждения (начиная с 240-мм радиаторов), компактности в зоне процессорного разъёма, огромном ассортименте под любые корпуса системных блоков и любые процессоры. Но есть и недостатки, в числе которых отсутствие какого-либо обдува радиаторов на VRM-цепях материнских плат, высокий уровень шума на максимальных скоростях вентиляторов, а также риск протечки и повреждения других комплектующих.
Чтобы исключить возможность возникновения последней обозначенной проблемы, компания Deepcool в дополнение к уже выпускаемым ей 17 необслуживаемым СЖО запустила в продажу новую систему жидкостного охлаждения Deepcool Captain 240 Pro с системой
**Anti-Leak**. Кроме этого, охладитель получил настраиваемую и синхронизируемую подсветку вентиляторов и помпы. Мы решили познакомиться с этой системой и рассказать вам о её эффективности и уровне шума.
⇡#
**Технические характеристики и стоимость **
|
Наименование характеристик |
Deepcool Captain 240 Pro (DP-GS-H12AR-CT240P)
|
Радиатор
|Размеры (Д × Ш × В), мм
|290 × 120 × 28
|Размеры рабочего тела радиатора (Д × Ш × В), мм
|290 × 120 × 19
|Материал радиатора
|Алюминий
|Число каналов в радиаторе, шт.
|14
|Расстояние между каналами, мм
|7,5
|Плотность радиатора, FPI
|21
|Термическое сопротивление, °C/W
|н/д
|Объём хладагента, мл
|н/д
|
Вентиляторы
|Количество вентиляторов
|2
|Модель вентилятора
|DF1202512CM-012
|Типоразмер, мм
|120 × 120 × 25
|Диаметр крыльчатки/статора, мм
|113 / 45
|Количество и тип подшипника(ов)
|1, гидродинамический
|Скорость вращения, об/мин
|500–1800 (±10%)
|Максимальный воздушный поток, CFM
|2 × 69,34
|Уровень шума, дБА
|30,0
|Максимальное статическое давление, мм H
2O |2 × 2,42
|Номинальное/стартовое напряжение, В
|12 / 4,3
|Энергопотребление: заявленное/измеренное, Вт
|2 × 2,04 / 2 × 2,30
|Срок службы, часов/лет
|н/д
|Вес одного вентилятора, г
|141
|Длина кабеля, мм
|290
|
Помпа
|Размеры (Д × Ш × В), мм
|92 × 56 × 85
|Производительность, л/ч
|н/д
|Высота подъёма воды, м
|н/д
|Скорость ротора помпы: заявленная/измеренная, об/мин
|2200 (±10%) / 2060
|Тип подшипника
|керамический
|Срок службы подшипника, часов/лет
|50 000 / >5,7
|Номинальное напряжение, В
|12,0
|Энергопотребление: заявленное/измеренное, Вт
|1,56 / 1,39
|Уровень шума, дБА
|17,8
|Длина кабеля, мм
|265
|
Водоблок
|Материал и структура
|Медь, оптимизированная микроканальная структура с каналами шириной 0,1 мм
|Совместимость с платформами
|Intel LGA115(х)/1366/2011(v3)/2066
AMD Socket TR4/AM4/AM3(+)/AM2(+)/FM1(2+)
|
Дополнительно
|Длина шлангов, мм
|290
|Внешний/внутренний диаметр шлангов, мм
|12 / н/д
|Хладагент
|Нетоксичный, антикоррозионный
(пропиленгликоль)
|Максимальный уровень TDP, Вт
|н/д
|Термопаста
|Deepcool, 1 г
|Подсветка
|Вентиляторов и крышки помпы, с пультом управления на кабеле, синхронизируемая с материнской платой
|Общий вес системы, г
|1171
|Гарантийный срок, лет
|3
|
Розничная стоимость, ₽ |
7 990
Deepcool Captain 240 Pro запечатана в большую картонную коробку с изображением самой системы на её лицевой стороне. Там же можно найти ярлычки, информирующие о поддержке различных технологий подсветки.
На обратной стороне коробки приведены подробные размеры компонентов охладителя, перечислены его ключевые особенности и технические характеристики.
На стикерах со штрихкодами можно найти маркировку продукта – DP-GS-H12AR-CT240P, а также страну производства – Китай.
Внутри в коробку вставлена оболочка из пористого картона с отсеками под компоненты СЖО. Кроме того, вентиляторы и крепления с аксессуарами имеют дополнительную оболочку из картона.
Внутри небольшой коробочки находятся универсальная усилительная пластина, две пары стальных направляющих для Intel и AMD, наборы винтов и шайб, термопаста с наклейкой Gamer Storm, инструкция и наборы кабелей с хабами для подсветки и вентиляторов.
В России Deepcool Captain 240 Pro уже можно купить по цене около восьми тысяч рублей. Добавим, что на систему предоставляется трёхлетняя гарантия, и перейдём к знакомству с ней.
Deepcool Captain 240 Pro представляет собой необслуживаемую систему жидкостного охлаждения (СЖО), состоящую из алюминиевого радиатора, на котором устанавливаются вентиляторы, и соединённого с ним двумя гибкими шлангами модуля помпы и водоблока.
Такую конструкцию можно назвать классической, а сама идея (и патент на неё) принадлежит хорошо известной нам с вами компании Asetek. Из внешних отличий Captain 240 Pro от других подобных систем выделим только хромированные накладки по бокам радиатора и оригинальную крышку помпы, создающую впечатление, что сверху из неё торчат лопасти ротора.
Размеры двух этих компонентов СЖО приведены на схеме ниже.
Из конструктивных отличий радиатора выделим увеличенный резервуар (слева на фото), в который и встроен компонент системы Anti-Leak.
Он представляет собой клапан, через который система сбрасывает избыточное давление, когда хладагент внутри контура нагревается и расширяется.
Это действительно ноу-хау в СЖО данного класса. По мнению инженеров Deepcool, данный компонент позволяет исключить вероятность протечек системы и повреждения окружающих её компонентов системного блока.
Давление сбрасывается благодаря встроенному в корпус резервуара эластичному клапану (ёмкости), омываемому охлаждающей жидкостью. Он изготовлен из высококачественного этиленпропиленового каучука производства DuPont (E. I. du Pont de Nemours and Company).
Обладая такими свойствами, как эластичность, коррозионная стойкость, стойкость к старению и сопротивляемость воздействию температурной нагрузки, он автоматически балансирует давление внутри системы, поддерживая его на одном уровне. Решение интересное, нужно признать, хотя случаи протечек необслуживаемых СЖО из-за чрезмерного повышения давления внутри контура нам неизвестны.
Также с целью максимальной герметизации контура в Deepcool Captain 240 Pro применены новые трубки, изготовленные из материала, сочетающего бутил-каучук и высококачественную резину, произведённую в Японии и США.
Их внешний диаметр равен 12 мм, а вот длина, на наш взгляд, маловата — всего 290 мм.
Что касается самого радиатора, то он целиком выполнен из алюминия. Рёбра его гофроленты размещены между 14 плоскими каналами, а плотность рёбер равна 21 FPI.
На выходящих из радиатора фитингах плотно обжаты трубки, а на противоположном торце приклеена наклейка со штрихкодом и серийным номером.
Объём охлаждающей жидкости в контуре не известен, но производитель и здесь заявляет об использовании какого-то премиального состава с контролируемой с точностью до 0,01 г массой.
Помпа выглядит оригинально благодаря выходящей из неё матовой трубке и мини-лопастям на крышке, выполняющим исключительно декоративную функцию.
На помпе также есть два фитинга с закреплёнными на них шлангами, но, в отличие от радиатора, здесь они поворотные.
Конструкция помпы и водоблока приведена на схеме ниже.
Как видим, в помпе используется подшипник с циркониево-керамической втулкой, долговечный трёхфазный электромотор и двойная камера расширения. Срок службы подшипника – 50 тысяч часов, что с лихвой покроет гарантийный срок, предоставляемый на систему. Заявленная скорость ротора помпы – 2200 об/мин с погрешностью 10 %. В неё помпа и уложилась, работая на 2060 об/мин, по результатам наших измерений. Уровень шума – 17,8 дБА, энергопотребление – 1,56 Вт.
Медный водоблок имеет классическую конструкцию и состоит из тонких рёбер высотой около 4 мм с межрёберным расстоянием 0,1 мм. Его основание обработано на твёрдую четвёрку, но адептам зеркальной полировки оно вряд ли понравится.
Ст
*о*ит отметить, что контактная поверхность основания водоблока ровная, что подтвердилось полученным отпечатком выпуклого теплораспределителя процессора конструктивного исполнения LGA2066.
Два 120-мм вентилятора Deepcool Captain 240 Pro выглядят интересно. Они имеют полупрозрачные девятилопастные крыльчатки диаметром 113 мм и чёрные глянцевые рамки с насечками на внутренней стороне кромок.
Поверхность лопастей получила волнообразный профиль, благодаря которому должно повышаться статическое давление, развиваемое вентиляторами.
Скорость их вращения изменяется широтно-импульсной модуляцией (ШИМ) в диапазоне от 500 до 1800 об/мин, максимальный воздушный поток каждого вентилятора может достигать 69,34 CFM, статическое давление – 2,42 мм H
2O, уровень шума – 30 дБА.
Диаметр статора равен 45 мм. Он закрыт бумажной наклейкой с информацией о серии системы, маркировкой вентилятора DF1202512CM-012 и электрическими характеристиками.
Вентиляторы оказались довольно экономичными, потребляя на максимальной скорости всего 2,3 Вт, а их стартовое напряжение составило 4,3 В.
В углах рамки каждого вентилятора с обеих её сторон встроены мягкие силиконовые уголки.
Через них вентиляторы и контактируют с корпусом радиатора, на котором закрепляются длинными или короткими винтами.
Всего на радиатор можно установить четыре 120-мм вентилятора (вдув/выдув), организовав своеобразный сэндвич с ещё более высокой эффективностью охлаждения.
Водоблок Deepcool Captain 240 Pro можно установить на процессоры Intel конструктивного исполнения LGA2011/2066/1366/115x и процессоры AMD с разъёмами Socket AM2(+)/AM3(+)/AM4/FM1/FM2(+)/TR4. Последний разъём видеть в числе поддерживаемых особенно приятно, поскольку встречается он в системах охлаждения пока нечасто.
Процесс установки подробно изложен в инструкции и не отличается от оного у других СЖО необслуживаемого типа. Всего по трём приведённым ниже фото понятно, как и с помощью чего водоблок Captain 240 Pro закрепляется на процессоре с разъёмом LGA2066.
Отметим здесь очень высокое усилие прижима водоблока к теплораспределителю процессора.
Для размещения радиатора в корпусе системного блока потребуются два расположенных рядом посадочных места под 120-мм вентиляторы. Последние можно установить как за радиатором, так и перед ним. В нашем случае мы использовали второй вариант.
Помпу нужно подключить к разъёму вентилятора для процессора на материнской плате и отключить в BIOS автоматическое управление его скоростью. В свою очередь, кабели питания и мониторинга вентиляторов подключаются к отдельному хабу, который рассчитан на четыре разъёма, после чего он соединяется со свободным разъёмом вентилятора на плате.
Наконец, три кабеля подсветки вентиляторов и помпы подключаются к ещё одному хабу, который можно соединить либо с адресуемым RGB-разъёмом на материнской плате, либо с маленьким пультом. Подключение разъёма питания PATA-типа необходимо в обоих случаях.
Ну а дальше начинается дискотека со светомузыкой. Управлять подсветкой легко и интересно — что через пульт, что силами программного обеспечения конкретной материнской платы ASUS, Gigabyte, MSI или ASRock.
Как видите, подсветка выглядит очень эффектно даже в статике, а в динамике делает системный блок с прозрачной боковой стенкой невероятно красивым — по крайней мере, на мой вкус.
⇡#
**Тестовая конфигурация, инструментарий и методика тестирования**
Оценка эффективности Deepcool Captain 240 Pro и её сегодняшнего конкурента была проведена в закрытом корпусе системного блока следующей конфигурации:
Для оценки эффективности систем охлаждения частоту процессора на BCLK, равной 100 МГц, при фиксированном в значении
**43** множителе и установленной на первый уровень стабилизации функции Load-Line Calibration мы зафиксировали на отметке **4,3** ** ГГц** с одновременной установкой заранее подобранного напряжения в BIOS материнской платы в значении **1,072 В**.
Напряжение VCCIO было выставлено на 1,100 В, а VCCSA – на 1,075 В. В свою очередь, напряжение модулей оперативной памяти фиксировалось на отметке 1,35 В, а её частота составляла 3,2 ГГц с таймингами 16-18-18-39 CR2. Кроме этого, в BIOS были внесены ещё несколько изменений, относящихся к разгону процессора и оперативной памяти.
Тестирование было проведено в операционной системе Microsoft Windows 10 Pro версии 1809 (17763.379). Программное обеспечение, использованное для теста:
Полный снимок экрана во время проведения одного из циклов тестирования выглядит следующим образом.
Нагрузка на процессор создавалась двумя последовательными циклами Prime95. На стабилизацию температуры процессора между циклами отводилось по 10–12 минут. За окончательный результат, который вы увидите на диаграмме, принята максимальная температура наиболее горячего из десяти ядер центрального процессора в пике нагрузки и в режиме простоя. Кроме этого, в отдельной таблице будут приведены температуры всех ядер процессора, их усреднённые значения и дельта температур между ядрами. Температура в помещении контролировалась установленным рядом с системным блоком электронным термометром с точностью измерений 0,1 °C и с возможностью почасового мониторинга изменения температуры в помещении за последние 6 часов. Во время данного тестирования температура колебалась в диапазоне
**23,5–23,9** °C.
Измерение уровня шума систем охлаждения проводилось электронным шумомером «ОКТАВА-110А» в период от ноля до трёх часов ночи в полностью закрытой комнате площадью около 20 м
2 со стеклопакетами. Уровень шума измерялся вне корпуса системного блока, когда источником шума в комнате являлся только сам кулер/СЖО и его вентилятор(ы). Шумомер, зафиксированный на штативе, всегда располагался строго в одной точке на расстоянии ровно 150 мм от ротора вентилятора. Системы охлаждения размещались на самом углу стола на пенополиуретановой подложке. Нижняя граница измерений шумомера составляет 22,0 дБА, а субъективно комфортный (просьба не путать с низким!) уровень шума кулеров при измерениях с такого расстояния находится около отметки 36 дБА. За условно низкий уровень шума мы принимаем значение 33 дБА.
Эффективность и уровень шума Deepcool Captain 240 Pro мы сравним с показателями суперкулера Phanteks PH-TC14PЕ ($74,99), оснащённого двумя 140-мм вентиляторами Corsair AF140.
Регулировка скорости вращения вентиляторов систем охлаждения производилась с помощью специального контроллера с точностью ±10 об/мин в диапазоне от 800 об/мин до их максимума с шагом 200 об/мин.
⇡#
** Результаты тестирования и их анализ**
Результаты тестирования эффективности систем охлаждения представлены на диаграмме и в таблице.
В целом картина вполне привычная. Deepcool Captain 240 Pro, как СЖО с 240-мм радиатором, способна конкурировать с лучшим воздушным кулером на скоростях вентиляторов от 1200 до 1850 об/мин, выигрывая у него вплоть до 8 градусов Цельсия. При снижении скорости двух 120-мм вентиляторов до 1000 об/мин система жидкостного охлаждения уже начинает проигрывать, а при 800 об/мин уступает Phanteks PH-TC14PЕ три градуса Цельсия в пике нагрузки. Разница в температурах процессора между минимальной и максимальной скоростью вращения вентиляторов СЖО составляет 15 градусов Цельсия.
Далее мы разогнали процессор до 4,4 ГГц при напряжении 1,118 В.
Из тестирования выбыл суперкулер на 800 об/мин и Deepcool Captain 240 Pro на 800 и 1000 об/мин. Остальные результаты – на диаграмме и в таблице.
И снова СЖО отрывается от воздушного кулера на 8 градусов Цельсия при максимальной скорости двух своих вентиляторов — и снова теряет всё это преимущество при снижении скорости до 1200 об/мин. Впрочем, это вполне достойный результат для сравнительно компактной СЖО необслуживаемого типа, пусть она и немного дороже данного конкретного суперкулера.
Дорогих вентиляторов Noctua у Deepcool Captain 240 Pro нет, поэтому максимум, на что оказалась способна данная СЖО, – это 920 об/мин на границе условного комфорта и 800 об/мин на границе условной бесшумности. Но если обратить внимание на тот факт, что при 1200 об/мин уровень шума Captain 240 Pro такой же, как и у Phanteks PH-TC14PЕ при 1090 об/мин, и вернуться на диаграмму выше, то можно сказать, что обе эти системы на данных скоростях равны и по эффективности, и по уровню шума. Отдельно ст
*о*ит отметить бесшумность работы помпы – всего 29,8 дБА по нашей методике, притом что граница условной бесшумности – 33 дБА, а «мёртвая» тишина наступает после 29 дБА. Исключительно тихая помпа!
Даже оценивая Deepcool Captain 240 Pro критически, трудно найти у неё серьёзные недостатки. Разве что трубки можно было бы сделать подлиннее на 50-70 мм, но на этом всё. В сравнении с ранее выпущенными Deepcool моделями Captain 240 Pro наделили защитной системой Anti-Leak и новыми соединительными трубками, что сделало СЖО более надёжной и долговечной. В плане эффективности вряд ли можно сказать, что что-то изменилось: на высоких скоростях вентиляторов 240-мм СЖО и раньше выигрывали у лучших воздушных кулеров, равно как и проигрывали им в тихих режимах работы. Порадовала совместимость с процессорами AMD с Socket TR4, которой раньше не было. Ну а подсветка стала ещё красивее и вариативнее. Поскольку в плане стоимости серьезного повышения не произошло, то мы вполне можем рекомендовать Deepcool Captain 240 Pro для любых типов процессоров и задач. |
986,547 | Обзор видеокарты MSI GeForce RTX 2060 Ventus 6G OC: самые доступные «лучи» | Если вы следите за компьютерными технологиями и комплектующими для ПК-игроков в частности, то прекрасно знаете, что GeForce RTX 2060 — это младший на данный момент графический ускоритель NVIDIA на базе чипа Turing, который поддерживает все современные «фишки» NVIDIA, включая аппаратную трассировку лучей. Однако с недавнего времени трассировку лучей в реальном времени наравне с продуктами под маркой RTX поддерживают и карты GeForce GTX поколения Truring и даже Pascal, хотя у них и нет для этого специализированной логики. Это несколько усложняет выбор видеокарты. И особенно остро вопрос выбора стоит между такими моделями, как GeForce RTX 2060 и GeForce GTX 1660 Ti. Первая поддерживает трассировку лучей на аппаратном уровне, зато «Тишка», как правило, стоит меньше. Давайте разберемся с этим вопросом, а заодно подробно изучим модель MSI GeForce RTX 2060 Ventus 6G OC, которую нам прислали в тестовую лабораторию.
⇡#Технические характеристики и особенности конструкции
Напомню, что недавно на нашем сайте вышел обзор видеокарты MSI GeForce RTX 2080 Ventus 8G OC. Эта модель нам приглянулась — она оказалась быстрее, тише, холоднее и доступнее эталонной версии Founders Edition. Ускоритель MSI GeForce RTX 2060 Ventus 6G OC выглядит так, будто бы он является младшим братом MSI GeForce RTX 2080 Ventus 8G OC — уж очень эти устройства внешне похожи друг на друга. И все же GeForce RTX 2060 — есть GeForce RTX 2060. Основные технические характеристики рассматриваемой видеокарты представлены в таблице ниже.
|
NVIDIA GeForce RTX 2060 Founders Edition (референс) |
MSI GeForce RTX 2060 Ventus 6G OC
|
Графический процессор
|Название
|TU106
|TU106
|Микроархитектура
|Turing
|Turing
|Техпроцесс, нм
|12 нм FFN
|12 нм FFN
|Число транзисторов, млн
|10800
|10800
|Тактовая частота, МГц: Base/Boost
|1365/1680
|1365/1710
|Число шейдерных ALU
|1920
|1920
|Число блоков наложения текстур
|120
|120
|Число ROP
|48
|48
|
Оперативная память
|Разрядность шины, бит
|192
|192
|Тип микросхем
|GDDR6 SDRAM
|GDDR6 SDRAM
|Тактовая частота, МГц (пропускная способность на контакт, Мбит/с)
|1750 (14000)
|1750 (14000)
|Шина ввода/вывода
|PCI Express 3.0 x16
|PCI Express 3.0 x16
|Объем, Мбайт
|6144
|6144
|
Производительность
|Пиковая производительность FP32, GFLOPS (из расчета максимальной указанной частоты)
|6451
|6566
|Производительность FP32/FP64
|1/32
|1/32
|Пропускная способность оперативной памяти, Гбайт/с
|336
|336
|
Вывод изображения
|Интерфейсы вывода изображения
|DisplayPort 1.4a, HDMI 2.0b
|DisplayPort 1.4a, HDMI 2.0b
|TDP, Вт
|160
|160
|Розничная цена, руб.
|32 000
|27 500
Подробно про возможности архитектуры Turing вы можете прочитать в нашем большом теоретическом обзоре.
В комплекте с MSI GeForce RTX 2060 Ventus 6G OC не нашлось ничего необычного: бумажная документация да диск с драйверами и сопутствующим ПО.
Сам производитель заявляет, что MSI GeForce RTX 2060 Ventus 6G OC «
*обладает агрессивным дизайном, выполненным в нейтральных цветах*». Нравится вам такой внешний вид видеокарты или нет — решайте сами, я же дополню ваши впечатления информацией о том, что эта видеокарта будет отлично смотреться вместе с платами MSI серии MEG, а также в корпусах белого цвета с боковым окошком.
За охлаждение GPU и чипов памяти в MSI GeForce RTX 2060 Ventus 6G OC отвечает довольно большой двухвентиляторный кулер. Длина устройства составляет скромные 230 мм. Толщина кулера соответствует двум слотам расширения корпуса. Однако MSI GeForce RTX 2060 Ventus 6G OC получилась довольно широкой — 125 мм против стандартных 100 мм. Если вы собираете ПК в стандартном Midi- или Full-Tower-корпусе, то проблем с совместимостью у вас не будет, но вот в некоторые компактные корпуса форм-фактора Slim Desktop видеокарта рискует не поместиться.
Что касается вентиляторов, то в устройстве применяются две 85-мм вертушки Torx 2.0 (маркировка — PLD09210S12HH производства Power Logic), каждая из которых имеет 14 лопастей. Вращаются они в одну сторону и, соответственно, направляют потоки воздуха так, чтобы они покидали пределы компьютерного корпуса. Производитель утверждает, что лопасти вентилятора имеют уникальную форму, которая улучшает рассеивание тепла за счет создания более концентрированного давления воздуха. Частота вращения крыльчаток варьируется в пределах от 800 до 3400 оборотов в минуту. В конструкции вентиляторов используются двойные подшипники качения.
Сразу же предупреждаю: панель ввода-вывода MSI GeForce RTX 2060 Ventus 6G OC не имеет DVI-порта — для владельцев старых мониторов это может стать проблемой. Зато там же распаяно сразу три DisplayPort и один HDMI-выход. Остальное место занимает достаточно большая решетка, необходимая для вывода нагретого воздуха.
Моддинг-элементов у видеокарты нет — ни подсветки, ни модных нынче дополнительных экранов. На торце есть только надписи MSI и GeForce RTX.
Хотя постойте! Видеокарта оснащена пластиковым бекплейтом. Само устройство, как мы уже выяснили, имеет небольшую длину, поэтому увеличивать ему жесткость конструкции нет смысла. Пластик, естественно, не является и элементом системы охлаждения — к тому же пластина никак не соприкасается с обратной стороной печатной платы, тогда как у той же MSI GeForce RTX 2080 Ventus 8G OC, например, бекплейт через термопрокладки отводит тепло от GPU и чипов памяти. Так что задняя пластиковая пластина в данном случае выполняет только две функции: декоративную и защитную — на видеокартах серии RTX распаяно очень много мелких деталей, которые совершенно случайно можно сковырнуть.
Кулер MSI GeForce RTX 2060 Ventus 6G OC снимается достаточно просто — для этого необходимо открутить четыре подпружиненных винта. Радиатор получил довольно большую алюминиевую подошву, которая при помощи термопрокладок соприкасается с чипами GDDR6-памяти. С графическим процессором же напрямую взаимодействуют медные теплотрубки — используется так называемая технология прямого контакта. Теплотрубок четыре, они имеют диаметр 6 мм и все соприкасаются с GPU. Четыре — это не мало: некоторые производители любят напихать трубок в радиатор, но с чипом при этом контактируют только 2-3 из них. На мой взгляд, работать используемая здесь конструкция должна эффективнее, чем такая. От трубок тепло передается большим продольным алюминиевым ребрам — радиатор в MSI GeForce RTX 2060 Ventus 6G OC имеет односекционную конструкцию.
Некоторые элементы конвертера питания охлаждаются отдельным алюминиевым радиатором черного цвета.
«Прорехи» среди мосфетов и дросселей недвусмысленно дают понять: MSI GeForce RTX 2060 Ventus 6G OC собрана на базе печатной платы, которая используется в видеокартах MSI серии Gaming. VRM-зона насчитывает лишь шесть фаз питания, в которой четыре канала отвечают за работу GPU, а остальные два — за видеопамять. В первом случае фазами управляет ШИМ-контроллер ON Semiconductor NCP81610, во втором — uPI uP1666Q. Что же, мы видим, что конвертер питания Ventus-версии урезан даже на фоне референсной модели NVIDIA, то есть Founders Edition.
Дополнительное питание видеокарта получает через единственный восьмиконтактный разъем. Если учесть силовые линии слота PCI Express, то в теории потребляемая мощность устройства может достигать 225 Вт.
Вокруг немаленького GPU TU106 распаяно шесть микросхем GDDR6-памяти Micron с маркировкой 8UA77 D9WCW. Они работают на реальной частоте 1750 МГц, эффективная частота составляет 14 000 МГц.
⇡#Методика тестирования и стенд
|
Конфигурация тестового стенда
|CPU
|Intel Core i9-9900K, 8 ядер и 16 потоков, 3,6 (5,0) ГГц
|Материнская плата
|ASUS ROG STRIX Z390-E GAMING
|Оперативная память
|G.Skill Trident Z F4-3200C14D-32GTZ, DDR4-3200, 2 × 16 Гбайт
|Накопитель
|Samsung 850 Pro
|Блок питания
|Corsair AX1500i, 1500 Вт
|Система охлаждения CPU
|NZXT Kraken X62
|Корпус
|Открытый стенд
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|
ПО для видеокарт
|NVIDIA
|GeForce Game Ready Driver 425.31
Потенциал графического процессора TU106 хорошо известен. В основном GeForce RTX 2060 используют для игр в разрешениях Full HD и WQHD. В статье «Обзор видеокарты NVIDIA GeForce RTX 2060 Founders Edition: трассировка лучей для всех (почти)» рассмотрен уровень быстродействия этой видеокарты в сравнении с большим количеством других современных ускорителей. В этом материале мы изучим возможности исключительно MSI GeForce RTX 2060 Ventus 6G OC, сравнив ее с версией GeForce GTX 1660 Ti от компании GIGABYTE (маркировка — GV-N166TOC-6GD, обзор этой версии GIGABYTE GTX 1660 Ti вы можете найти на нашем сайте). Как известно, модели GeForce GTX 1660 Ti в исполнении Founders Edition в продаже не встречаются — в рознице есть только партнерские модификации этой видеокарты.
В то же время сравнивать уровень производительности GeForce RTX 2060 Ventus 6G OC и референса NVIDIA на том же чипе нет никакого смысла, так как GPU этих видеокарт обладают практически одинаковой частотой (у версии MSI она на 30 МГц выше), а GDDR6-память этих 3D-ускорителей так и вовсе работает одинаково.
|
Игры
|
Название |
Качество графики |
Сглаживание |
API
|
The Witcher III: Wild Hunt, Новиград и окрестности |Конфигурация — «Запредельное», NVIDIA HairWorks — макс., постобработка — макс., HBAO+
|АА
|DirectX 11
|
GTA V, черта города |Макс. качество графики, дополнительные настройки качества — вкл., масштаб разрешения изображения — выкл., 16 × AF
|FXAA + 4 × MSAA
|
FarCry 5, начало игры, отрезок до падения машины с моста |Конфигурация — «Максимум», HD-текстуры — вкл.
|TAA
|
Assassin's Creed Odyssey, остров Кефалиния |Конфигурация — «Самое высокое»
|Высокое
|
Watch_Dogs 2, Сан-Франциско и окрестности |Конфигурация — «Ультра», HBAO+, тень от объектов в свете фар — 4 машины, HD-текстуры — вкл.
|Временная фильтрация MSAA × 2, SMAA
|
HITMAN 2, миссия «Финишная черта» |Максимальное качество
|SSAA × 1
|
Shadow of the Tomb Raider, встроенный бенчмарк |Максимальное качество
|SMAAT2x
|DirectX 12
|
Deus Ex: Mankind Divided, комплекс «Утулек» |Максимальное качество
|MSSA × 2
|
Battlefield V, миссия «Последний тигр» |Конфигурация — «Ультра», DXR — выкл.
|TAA High
|
Metro Exodus, Волга |Конфигурация — «Экстрим», NVIDIA HairWorks — вкл., PhysX — выкл., DXR — выкл.
|TAA
Производительность в играх определялась с помощью хорошо известной программы FRAPS. Она позволяет получить время рендеринга каждого кадра. Затем при помощи утилиты FRAFS Bench Viewer рассчитывался не только средний FPS, но и 99-й процентиль. Использование 99-го процентиля вместо показателей минимального количества кадров в секунду обусловлено стремлением очистить результаты от случайных всплесков производительности, которые были спровоцированы не связанными напрямую с работой основных компонентов платформы причинами.
Во время тестирования MSI GeForce RTX 2060 Ventus 6G OC была дополнительно разогнана до стабильных частот по ядру и памяти.
⇡#
**Эффективность системы охлаждения, уровень шума, потребление энергии и разгон**
Вентиляторы MSI GeForce RTX 2060 Ventus 6G OC вращаются всегда. При этом можно с уверенностью сказать, что в простое видеокарта работает почти бесшумно — частота каждой крыльчатки составляет 800 об/мин. Но стоит включить любимую игру, как оба вентилятора начнут вращаться заметно быстрее, хотя, впрочем, и в этом случае не очень громко. В отличие от того, как это устроено у MSI GeForce RTX 2080 Ventus 8G OC, крыльчатки рассматриваемого устройства работают синхронно.
В номинальном режиме работы температура графического процессора после двух часов в «Ведьмаке» поднялась до 71 градуса Цельсия. Вентиляторы раскрутились до 1500 об/мин — это 44 % от максимальной частоты. Уровень шума, измеренный с расстояния в 30 см, составил всего 36 дБА. Как видите, под игровой нагрузкой MSI GeForce RTX 2060 Ventus 6G OC работает довольно тихо.
Если же выставить максимальную частоту вращения вентиляторов (~3400 об/мин), то температура GPU снизится на 19 градусов Цельсия, но до 46,5 дБА увеличится шум. У кулера явно есть большой «запас прочности».
Небольшие эксперименты показали, что вентиляторы Ventus-версии работают комфортно для пользователя вплоть до 51 % (1730 об/мин) от максимальной скорости. Если выставить это значение вручную, то температура ГП снижается до 66 градусов Цельсия, а частота GPU перестает опускаться ниже 1890 МГц.
В режиме работы по умолчанию частота GPU тестового образца в «Ведьмаке» менялась в пределах от 1950 до 1860 МГц. В программе MSI Afterburner я смог увеличить лимит мощности на 6 %. В таких реалиях частота ядра была увеличена на 90 МГц — в играх же она менялась в диапазоне 1920-2010 МГц. Температура GPU держалась на все той же отметке в 71 градус Цельсия, уровень шума, измеренный с того же расстояния, не изменился, так как вентиляторы в автоматическом режиме стали вращаться быстрее всего на 2 %.
Память разогналась до стандартных эффективных 15 800 МГц. Если же обобщить полученные данные от разгона, то видно, что MSI GeForce RTX 2060 Ventus 6G OC в этом отношении звезд с неба не хватает. Для получения более внушительных результатов потребуется модель помощнее — серии Gaming, например.
Отмечу, что тестовый стенд в «Ведьмаке» потреблял максимум 213 Вт. Стоило немного разогнать видеокарту, как этот параметр увеличился на 15 Вт.
В 3DMark (подтесты Fire Strike и Time Spy) такой разгон привел к увеличению количества баллов в среднем на 8 %. В играх, о которых мы поговорим далее, наблюдается схожая ситуация.
Итак, давайте сравним GeForce RTX 2060 и GeForce GTX 1660 Ti. Напомню, что основными разрешениями для этих видеокарт являются Full HD и WQHD. Уверен, 1080p будет использоваться геймерами чаще. Тестирование обеих моделей в разрешении Ultra HD, на мой взгляд, является бессмысленной тратой времени — как вашего, так и моего.
У GeForce RTX 2060 отличный GPU. Производительности графического процессора, если не использовать RTX-функции, достаточно для того, чтобы обеспечить комфортный средний FPS в современных играх как в разрешении Full HD, так и в WQHD. При этом используются максимальные или близкие к максимальным настройки качества графики. GeForce GTX 1660 Ti все же заметно отстает от GeForce RTX 2060 — в среднем разница достигает 15-20 %. Так что разница в цене между этими моделями, на мой взгляд, выглядит вполне оправданной.
И все же у видеокарт уровня GeForce RTX 2060 есть одна особенность, которую обязательно надо учитывать перед покупкой устройства. Наличие всего 6 Гбайт видеопамяти уже сейчас накладывает ограничения. В таких играх, как Shadow of the Tomb Raider, Far Cry 5 (с использованием HD-текстур), Watch Dogs 2 и Deus Ex: Mankind Divided, потребление видеопамяти при заданных нами настройках доходит до предела. А это значит, что в перечисленных программах могут возникнуть лаги. Следовательно, придется снижать качество графики, хотя, как мы видим, GPU устройства может обеспечить комфортный FPS.
Например, в Shadow of the Tomb Raider в разрешении WQHD разгон видеокарты заметно увеличил минимальный FPS (99-й процентиль) — на целых 12 кадров в секунду!
Конечно же, главной особенностью любой GeForce RTX 2060 является поддержка на уровне железа трассировки лучей. Наш недавний обзор наглядно показал, что адаптеры GeForce GTX (поколений Pascal и Turing) хоть и поддерживают отныне «лучи», но делают это крайне скверно. Сравнение GeForce RTX 2060 с GeForce GTX 1660 Ti этот факт подтверждает еще раз.
Вот только применение технологии трассировки лучей заметно увеличивает потребление видеопамяти в играх. Так, с использованием режима качества графики «Ультра» и включение любого уровня отражений при трассировке лучей DXR в Battlefield V приводит к появлению весьма заметных глазу лагов. Для более-менее комфортного времяпрепровождения приходится снижать общее качество графики до параметра «Высокое». Аналогичная ситуация наблюдается и в Shadow of the Tomb Raider.
За последние несколько недель стало понятно, что игровая индустрия пойдет по пути внедрения трассировки лучей. Да, пока что игр, поддерживающих RTX-технологии, насчитывается всего три, но уже очевидно, что их скоро будет больше. В 2020 году SONY выпустит приставку PlayStation 5, которая тоже получит аппаратную трассировку лучей. Это значит, что и решения компании AMD тоже сделают ставку на эту технологию. Так что покупка видеокарты серии GeForce RTX сейчас — это, полагаю, возможность «быть в тренде» на протяжении ближайших пары лет.
Действительно, покупка GeForce RTX 2060 является, пожалуй, самой доступной возможностью играть в игры с «лучами». Потому что адаптеры GeForce GTX, хоть и получили такой подарок от своего же создателя, на деле справляются с трассировкой очень и очень плохо. Особенно если речь идет о графических ускорителях стоимостью до 30 000 рублей. Однако в случае использования GeForce RTX 2060 вам придется идти на некоторые компромиссы. Тестирование наглядно показало, что в одних играх серьезная нагрузка ложится на GPU, в других приложениях на комфорте сказывается нехватка видеопамяти.
Наличие всего 6 Гбайт GDDR6-памяти лично я считаю главным недостатком GeForce RTX 2060. Уже сейчас есть игры, которым этого не хватает. А что будет завтра? Сказывается впечатление, что GeForce RTX 2060 — это игровой ускоритель без серьезного запаса прочности.
К самой же MSI GeForce RTX 2060 Ventus 6G OC у меня претензий нет. Видеокарта получила эффективный, но при этом тихий кулер. Эту модель я посоветую тем, кто желает установить в системный блок устройство и забыть про него. Если вам необходим адаптер для каких-либо экспериментов с разгоном, то лучше выбрать другую модель. |
986,607 | Mortal Kombat 11 — кровью и потом. Рецензия | |
Жанр |Файтинг
|
Издатель |Warner Bros. Interactive Entertainment
|
Издатель в России |«СофтКлаб»
|
Разработчик |NetherRealm Studios
|
Минимальные требования |Процессор Intel Core i 5-750 2,66 ГГц/ AMD Phenom II X 4 965 3,4 ГГц, 8 Гбайт RAM , видеокарта с поддержкой DirectX 11 и 2 или 3 Гбайт памяти, например NVIDIA GeForce GTX 670/ AMD Radeon HD 7950, 60 Гбайт на жестком диске
|
Рекомендуемые требования |Процессор Intel Core i 7-4790 3,6 ГГц/ AMD Ryzen 5 1500 X 3,5 ГГц, 8 Гбайт RAM , видеокарта с поддержкой DirectX 11 и 4 Гбайт памяти, например NVIDIA GeForce GTX 970/ AMD Radeon RX 480
|
Дата выхода |23 апреля 2019 года
|
Возрастной ценз |от 18 лет
|
Платформы |PC, PlayStation 4, Xbox One, Nintendo Switch
|
Официальный сайт *Игра протестирована на PlayStation 4*
У многих людей слово «файтинг» прежде всего ассоциируется с Mortal Kombat. Пусть японские игры этого жанра значительно превосходят творения NetherRealm в плане глубины, значительная часть аудитории любит просто брать любимых персонажей, запоминать пару сокрушительных комбинаций и наблюдать за тем, как ломаются кости противника. А потом, конечно, включать паузу, открывать список фаталити и насмехаться над поверженным оппонентом.
**И стар и млад**
В этом плане Mortal Kombat 11 почти ничем не отличается от предшественницы. Все, чего ожидаешь от новой части, на месте: продолжительная – на шесть часов – сюжетная кампания, два с половиной десятка бойцов, среди которых полно старых любимчиков, всякие дополнительные режимы на любой вкус, в том числе башни испытаний и Крипта с ценными трофеями. Ничего кардинально нового фанатам серии игра предложить не может, просто старые идеи получают развитие. Но лучше бы некоторые из них так не развивали.
К счастью, с «сюжеткой» ничего плохого не произошло — это безумное зрелищное кино со множеством знакомых персонажей и уймой видеороликов. Бессмысленные QTE исчезли — теперь вы смотрите фильм и периодически отвлекаетесь на драки. В некоторых эпизодах вас просят выбрать между двумя героями, как в Injustice 2, но на историю это никак не влияет и нелинейность не вводит — просто в паре моментов вы можете взять Лю Кана вместо Кун Лао или Джакса вместо Джеки.
Сюжет строится вокруг новой злодейки по имени Кроника, которая работала над созданием Песков времени, управляющих судьбами миров и каждой живой души. В какой-то момент она останавливает время и пытается найти союзников, недовольных нынешним ходом истории. В итоге получается так, что живущие обычной жизнью персонажи вдруг встречаются со своими молодыми версиями из другой эпохи. К примеру, ставший скучным воякой Джонни Кейдж видит, каким потешным «мистером Голливудом» он был раньше, а Соня не понимает, чем он мог ей понравиться.
Даже если вселенная Mortal Kombat вам не очень интересна, наблюдать за всем этим жутко увлекательно. Конечно, не обошлось без пары надуманных эпизодов (кто-то задел кого-то плечом, и они начали драку), но такого тут заметно меньше, чем в последних частях серии и в Injustice. Есть явные герои, есть явные злодеи, есть персонажи, которых Кроника очаровала, но после пары сильных ударов по голове они приходят в чувство и понимают, на чьей стороне действительно хотят бороться. Фанаты будут рады увидеть, как за прошедшие годы все изменились, выросли и постарели — идея объединения прошлого и настоящего реализована отлично.
**Сорванные башни**
После всего этого великолепия решаешь посмотреть, что Mortal Kombat 11 может предложить помимо истории, и от увиденного буквально начинает болеть голова. Такого количества разных валют не найти даже в мобильных играх: монеты, кристаллы времени, фрагменты душ, сердца, жетоны пропуска боя, жетоны легкого фаталити, жетоны снаряжения. При просмотре своей комбат-карты видишь три испытания дня, какие-то гонки со временем, ежедневные награды за проведение боев с ИИ. Это уже не просто кровавый файтинг, к которому мы привыкли, — доставайте блокнот и вникайте.
В главном меню можно найти два типа башен. В классических башнях предлагается провести несколько боев за всех героев, чтобы увидеть уникальные для каждого концовки. На это тратить бюджет не стали — вам просто показывают сменяющиеся картинки, пока персонаж за кадром что-то бубнит. Гораздо более интересными должны быть «Башни времени», напоминающие «Мультивселенную» из Injustice 2. Это постоянно меняющиеся башни с таймерами и особыми наградами за их завершение. Однако они ставят такие абсурдные условия, что прохождение не приносит никакого удовольствия.
Проблема этих башен в том, что все негативные модификаторы в них влияют лишь на вас, а оппонента никак не касаются. Появляющиеся каждые пять секунд пилы, летящие снаряды, клубы ядовитого дыма, столбы огня и так далее — урон от них получает только игрок. А противник ведет себя как обычно, исполняя невообразимые комбо и будто предсказывая, куда вы будете бить и когда решите убрать палец с кнопки блока. Из-за отсутствия нормального баланса прохождение башен превращается в муку, такая идиотская сложность попросту раздражает. Единственным решением являются материалы — одноразовые предметы, которые вы можете брать с собой в башни для спасения в трудную минуту.
Среди этих материалов есть осколки и кристаллы жизни, восстанавливающие часть здоровья посреди драки, поджигающие врагов перчатки, возможность призыва различных бойцов (они используют один прием и тут же убегают), временная броня и другие бонусы. Для использования некоторых достаточно наклонить стик в нужную сторону, чтобы активировать другие, требуется стоять на месте, надеясь, что враг не успеет нанести удар. Обычно игра подсказывает, что лучше всего с собой брать, но далеко не всегда нужная вещь найдется в вашем инвентаре.
**Лутбоксы в игре без лутбоксов**
Чтобы заполучить эти предметы, необходимо покупать в Крипте сундуки за монеты, заработанные в различных режимах. Хоть разработчики и настаивали на том, что никаких лутбоксов в игре нет, эти сундуки — самые настоящие лутбоксы со случайными наградами. Из них могут выпадать новые облики, вступления, добивания, всякие элементы экипировки вроде жезла Джейд и очков Джонни Кейджа, а также упомянутые выше материалы и совсем не то, что хочешь видеть в дорогущем сундуке, — например, концепт-арты или картинки для комбат-карты игрока. Крипта получилась интересным, загадочным местом с секретами, разрушаемыми стенами и возможностью отматывать время назад, чтобы вновь заполнить открытые ранее сундуки.
«Косметики» в Mortal Kombat 11 так много, что быстро заполучить желаемый предмет практически невозможно. Здесь позволяют заплатить реальные деньги и приобрести тот или иной костюм в местном магазине, но далеко не все облики есть на прилавке. Кроме того, у каждого персонажа по три отдельных от костюма части гардероба, и каждую нужно прокачивать отдельно. Например, у Китаны есть маска, боевой веер и саи — для открытия ячейки улучшения у каждого предмета нужно заработать 5000 очков опыта, потом еще несколько тысяч для второго, потом для третьего… а если хотите поменять одну «косметику» на другую, извольте повторять процесс с нуля.
Это унылый «гринд», который вообще никак не мотивирует тратить десятки и сотни часов на игру ради костюмчиков. Разумеется, те, кто играет в Mortal Kombat не ради переодевания персонажей, а ради мультиплеера и сражений с друзьями за одним экраном, вообще не заметят проблему. Но если вам захочется настроить внешность любимых героев, то придется потратить на это гораздо больше времени, чем игра того заслуживает. Да и облики у многих персонажей очень скучные и банальные — одни и те же тряпки разных цветов. Разве что отдельные от костюмов предметы действительно различаются.
В то же время Mortal Kombat 11 есть за что похвалить. В разделе «Обучение» три категории: обычная тренировка, инструктаж и объяснение фаталити. Второй пункт самый интересный — там вы сможете не только отработать с десяток комбо за каждого отдельного персонажа, но и разучите сложные приемы нападения и защиты, узнаете все о зонировании и борьбе с ним, выясните, как подавить блок и спастись от подавления, и так далее. Здесь даже объяснят, что такое фреймы, и как определить, какие атаки безопасны, если оппонент ставит блок, и как можно наказать противника контратакой в наиболее подходящий момент. Очень приятно, что файтинг вдается в такие подробности и не оставляет новичков в неведении.
В плане драк игра мало чем отличается от предшественницы. Главное нововведение — фатальные удары, которые можно применить, если здоровье вашего персонажа ниже 30 %. Они активируются одновременным нажатием двух кнопок и, если оппонент не поставил вовремя блок, запускают брутальную семисекундную анимацию. Ножи в череп, прыжки с высоты на грудную клетку, разрезание позвоночника — в общем, обычные для MK вещи, после которых герои продолжают бегать и прыгать как ни в чем не бывало. В одних ситуациях это спасает, в других позволяет на лету изменить тактику. Интересный (и дико раздражающий) факт: в башнях во время этих анимаций ваш персонаж продолжает терять здоровье, если вокруг ядовитый газ или у него кровотечение. Завершил анимацию — умер от отравления. Класс!
*******
В целом новая Mortal Kombat — хороший, достойный файтинг, но лишь до тех пор, пока не сталкиваешься с самыми жуткими его недостатками. Вопиющий «гринд», который даже мобильные игры себе не позволяют, утомляет очень быстро, а в «Башнях времени» от игры начинаешь уставать из-за завышенной сложности и несправедливых условий. Жаль, что после прекрасной Injustice 2 ребята из NetherRealm сделали несколько шагов назад. Сюжет отличный, но от него другого и не ждали, обучение тоже стоит похвалить, а вот все остальное будто создавалось в спешке и едва тестировалось.
**Достоинства**:
веселая и зрелищная сюжетная кампания;
**Недостатки**:
несбалансированные «Башни времени»;
|
|
Насколько крутой была лицевая анимация в Injustice 2, настолько хороша она и тут. Да и вообще выглядит игра красиво, особенно в кампании и во время добиваний.
|
|
Единственная претензия — по поводу озвучения Сони. Ронда Роузи все-таки не актриса, а бывший боец MMA, поэтому озвучен персонаж так паршиво и безэмоционально, что даже обидно.
|
|
Для одного игрока, как и всегда, тут полно развлечений, от сюжетной кампании до Крипты, башен и тренировок с ИИ. И если история оставит лишь положительные эмоции, а обучение очень толковое и полезное, то к остальному могут возникнуть вопросы.
|
|
Есть и локальный, и онлайн-мультиплеер — соединение в последнем более-менее хорошее.
|
|
Если, кроме сюжета, вас ничего не интересует, то игра точно не разочарует. Если начнете изучать, что еще она может предложить — столкнетесь с жутким «гриндом», проблемами с балансом и не очень интересной кастомизацией.
*Оценка: 7,0/10* **Видео**: |
986,649 | Тест Wi-Fi-системы на базе Keenetic Ultra II и Keenetic Air (KN-1610): и стар и млад | Ещё на прошлогоднем декабрьском мероприятии Keenetic сделала сразу несколько важных анонсов, но нас в рамках данного обзора интересуют только два. Во-первых, компания действительно продолжает поддерживать старые модели, добавляя в прошивку новые функции. Во-вторых, среди этих новых функций в релизе наконец оказалась система Wi-Fi. Вот с ней-то и познакомимся на примере устройств разных поколений: модели 2015 года Keenetic Ultra II и новинки прошлого года Air (KN-1610). Это очередной наглядный пример важности ПО в современных устройствах.
Что такое Wi-Fi-система по версии Keenetic? Если в двух словах, то это централизованное управление точками доступа (ТД) Wi-Fi на основе любых современных устройств компании, подключённых по Ethernet-кабелю к одному из роутеров Keenetic, который в этом случае становится контроллером системы. Ранее, конечно, тоже можно было просто прокинуть кабель до нужного места, поставить там маршрутизатор, перевести его в режим работы обычной ТД и даже задать одинаковые имена и пароли для подключения к беспроводной сети. Однако Wi-Fi-система предлагает именно единое управление всей сетью. Это касается и обновления прошивок, и переноса всех сетевых настроек, и контроля над пользователями и устройствами, и, конечно, бесшовного роуминга, с которым мы познакомились на примере новой «Ультры».
Это своего рода ответ на mesh-системы и в то же время пробный заход на территорию SMB-решений. Причём в обоих случаях компания выигрывает по сочетанию цены и возможностей. С SMB-сегментом в этом смысле всё понятно, потому что стоимость решения для офиса на несколько помещений сама по себе будет немалой даже в случае устройств попроще и подешевле, а для дома такие решения всё равно слегка избыточны. А вот ситуация с mesh-вариантами понятна не всем. Трёхдиапазонные наборы, где один диапазон выделяется исключительно под передачу данных между точками для создания опорной сети, недёшевы. А двухдиапазонные страдают от классической проблемы репитеров — снижения вдвое (или более) базовой скорости из-за полудуплексного характера передачи данных по Wi-Fi. Половину времени точка доступа тратит на общение с другой точкой, а оставшееся распределяет между клиентами, среди которых тоже могут быть точки. И не все варианты поддерживают нормальное перестроение сети в случае отключения одного из узлов. Так что единственный неоспоримый плюс mesh-систем — отсутствие необходимости прокладки кабеля.
Для проводных же систем это, наоборот, единственный недостаток. Зато нет потерь в скорости и задержках беспроводного подключения, так как ресурсы эфира не тратятся на опорную сеть, да и масштабируемость значительно выше. В случае решения Keenetic заметного ограничения на число подчинённых точек доступа нет. По топологии тоже — можно подключить точки звездой, подсоединив их к основному роутеру-контроллеру, а можно и цепочкой, одну за другой, или обоими способами сразу. Собственно говоря, никакой хитрой магии (маршрутизации в данном случае) нет — для проводных подключений работает только коммутация. Из-за этого, например, на дочерних точках доступа в составе системы нельзя привязать к физическому порту отдельный сегмент/VLAN, а вот без Wi-Fi-системы в режиме обычной ТД всё будет доступно. Ну и в целом на дочерних точках в системе пропадает возможность изменения большинства настроек, так как они импортируются с контроллера. Это касается сегментов сети, имён и паролей SSID, роуминга, фильтрации MAC, IP и DHCP.
Из доступных параметров остаются только регион и стандарт, номер (с автовыбором) и ширина канала, мощность радиомодуля и Band Steering, опции включения Tx Burst и WPS. Тем не менее у дочерних устройств всё равно можно настроить доменное имя в KeenDNS и подключить их к облачной службе Keenetic Cloud, переназначить функции аппаратных кнопок, прописать статические маршруты, выбрать режим работы сетевых портов (скорость/дуплекс) и даже добавить новых пользователей. Хотя как раз приложения, где эти пользователи могут понадобиться, толком доступны не будут, за исключением сервисов для USB-накопителей, которые будут видны всей домашней сети: FTP, SMB, DLNA, а также служб DECT-донгла. Вообще говоря, при таком подходе Keenetic определённо стоит создать отдельную серию простых и недорогих точек доступа на тех же аппаратных платформах, что и роутеры, но без программных излишеств: с чуть другими корпусами/антеннами и питанием посредством PoE, а то и вовсе в виде коробочки для установки прямо в розетку. Выбранный для теста Keenetic Air наиболее близок к такой гипотетической ТД.
|
Технические характеристики Keenetic Air (KN-1610)
|
Стандарты |IEEE 802.11 a/b/g/n/ac (2,4 ГГц + 5 ГГц)
|
Чипсет/контроллер |MediaTek MT7628N (1 × MIPS24KEc 580 МГц) + MT7612
|
Память |RAM 64 Мбайт/ROM 16 Мбайт
|
Антенны |4 × внешние 5 dBi; длина 175 мм
|
Шифрование Wi-Fi |WPA/WPA2, WEP, WPS
|
Параметры Wi-Fi |802.11ac: до 867 Мбит/с; 802.11n: до 300 Мбит/с
|
Интерфейсы |4 × 10/100 Мбит/с Ethernet
|
Индикаторы |4 × функ. состояние (на верхней крышке); индикаторов портов нет
|
Аппаратные кнопки |Wi-Fi/WPS/FN, перезагрузка/сброс настроек; режим работы
|
Размеры (Ш × Д × В) |159 ×110 × 29 мм
|
Масса |240 г
|
Питание |DC 9 В, 0,85 А
|
Цена |≈ 3 200 рублей
|
Возможности
|
Доступ в Интернет |Static IP, DHCP, PPPoE, PPTP, L2TP, SSTP, 802.1x; VLAN; КАБiNET; DHCP Relay; IPv6 (6in4); Multi-WAN; приоритеты подключений (policy-based routing); Ping checker; WISP; мастер настройки NetFriend
|
Сервисы |VLAN; VPN-сервер (IPSec/L2TP, PPTP, OpenVPN, SSTP); автообновление ПО; Captive-портал; NetFlow/SNMP; SSH-доступ; Keenetic Cloud; Wi-Fi-система
|
Защита |Родительский контроль, фильтрация, защита от телеметрии и рекламы: «Яндекс.DNS», SkyDNS, AdGuard; HTTPS-доступ к веб-интерфейсу
|
Проброс портов |Интерфейс/VLAN+порт+протокол+IP; UPnP, DMZ; IPTV/VoIP LAN-Port, VLAN, IGMP/PPPoE Proxy, udpxy
|
QoS/Шейпинг |WMM, InteliQoS; указание приоритета интерфейса/VLAN + DPI; шейпер
|
Сервисы Dynamic DNS |DNS-master (RU-Center), DynDns, NO-IP; KeenDNS
|
Режим работы |Маршрутизатор, WISP-клиент/медиаадаптер, точка доступа, повторитель
|
Проброс VPN, ALG |PPTP, L2TP, IPSec; (T)FTP, H.323, RTSP, SIP
|
Брандмауэр |Фильтрация по порт/протокол/IP; Packet Capture; SPI; защита от DoS
Keenetic Air довольно компактен и мало весит (159 ×110 × 29 мм, 240 г), может крепиться к стене, имеет четыре поворотных антенны и два радиомодуля 2 × 2 для диапазонов 2,4 и 5 ГГц (300 и 867 Мбит/с соответственно), оснащён четырьмя сетевыми портами 100 Мбит/с и поставляется с маленьким блоком питания мощностью 7,65 Вт. Внутри у него SoC MediaTek MT7628N в паре с модулем MT7612, которые обеспечивают поддержку 802.11b/g/n/ac. По производительности он аналогичен прошлому поколению Air. Но самое главное — на корпусе у него есть аппаратный переключатель режимов работы. Поэтому, в отличие от других устройств, для перевода Air в режим точки доступа, который и нужен для работы в составе Wi-Fi-системы Keenetic, не надо лезть в веб-интерфейс, менять настройки и ждать перезагрузки — достаточно перед подключением питания просто сдвинуть рычажок переключателя в нужное положение и присоединить ethernet-кабель от контроллера системы. Особых требований к модели Keenetic, выбранной на роль контроллера, в общем-то, нет. Понятно, что если у вас уже есть несколько роутеров компании, то лучше, пожалуй, выбрать основным тот, который побыстрее хотя бы в части ethernet-портов, но это необязательно.
На роутере, который станет впоследствии контроллером Wi-Fi-системы, в настройках надо доустановить одноимённый компонент — в меню слева появится новый пункт. После включения системы Wi-Fi новоявленный контроллер просканирует сеть и предложит «захватить» подходящие точки доступа. Для работы системы требуется прошивка NDMS версии 2.15 или старше, но фактически при захвате точки доступа она всё равно будет обновлена до последней версии. В частности, у тестового Keenetic Air была довольно старая прошивка, что не помешало захватить его, обновить и включить в состав системы Wi-Fi. И… на этом процесс её настройки был завершён! Всё, что касается логики работы проводной и беспроводной сети, теперь настраивается только на контроллере и затем распространяется на все подчинённые точки доступа.
На соседней вкладке можно просмотреть журнал подключений/отключений и переходов устройств между всеми точками доступа. Переходы касаются и перемещений клиентов от одной точки доступа к другой, и переключений между диапазонами в пределах одной ТД, если активирован Band Steering. В логе можно увидеть три варианта переключений: 1) простой переход, когда клиент отключается от одной точки и заново подключается к другой — это самый медленный способ; 2) переход по PMK-кешу, когда при переподключении часть шагов отбрасывается и клиент быстрее цепляется к новой ТД; 3) быстрый переход, или Fast Transition (FT mode), который и даёт роуминг почти без потерь. Реальная же эффективность, а то и вообще наличие роуминга Wi-Fi, зависит в первую очередь от клиентов — при соблюдении всех условий всё равно именно они принимают решение о переходе и его типе, причём не всегда оптимальное.
Наиболее полную информацию о возможностях своих аппаратов в отношении поддержки стандартов, как и прежде, предоставляют Apple и Samsung — по ссылкам коротко рассказано, что такое 802.11 k/v/r и зачем нужны эти стандарты. В веб-интерфейсе Keenetic можно просмотреть текущие параметры подключения к Wi-Fi и наличие поддержки k/v/r для каждого из клиентов. Так что iPhone X, который умеет работать со всеми этими стандартами, снова был выбран в качестве тестового аппарата для проверки работы роуминга в реальной домашней сети с пачкой активных клиентов. На видео ниже хорошо видны две вещи. Во-первых, записи в логе о быстром переходе между двумя точками доступа — контроллером в лице Ultra II и подчинённым Keenetic Air. Во-вторых, снижение скорости при переходе к Air, связанное с ограничением пропускной способности проводной сети. Проводные порты у Air на 100 Мбит/с, но в данном конкретном случае для иллюстрации использовался один поток в полудуплексе, хотя мы знаем, что это не предел для данной платформы. В любом случае это самый частый и практически идеальный вариант перехода с минимальными потерей пакетов и числом ретрансмиссий. Но даже iPhone X иногда делает «медленный» переход с полным переподключением.
Для большинства других современных устройств, скорее всего, будет характерна поддержка только 802.11 k и/или v, а старые, вероятно, не поддерживают ничего из этого. Впрочем, как уже упоминалось в обзоре новой Keenetic Ultra, в реальности FT mode актуален для крайне малого числа приложений, и обычного перехода или уж тем более перехода с помощью PMK-кеша более чем достаточно. К тому же разработчики обещали в следующих релизах улучшить эффективность работы и этого метода тоже. Хотя каким-нибудь устройствам умного дома, например, это и вовсе ненужно. Их можно просто вывести в отдельный изолированный сегмент и — если расширение покрытия нужно, по большому счёту, только для них — докупить для Wi-Fi-системы совсем простые модели Start или Lite. А для типичных домашне-офисных нужд как раз подойдут новые Air, City или Extra.
**Заключение**
Единственным серьёзным ограничением Wi-Fi-системы в исполнении Keenetic является необходимость прокладки кабеля до подчинённых точек доступа — напрямую или через другие такие же точки. Но именно это выгодно отличает её по скорости передачи данных от mesh-решений, где опорной сетью является тот же Wi-Fi, в лучшем случае с дополнительным 5-ГГц диапазоном, который клиенты использовать всё равно не могут. От кабельных систем других вендоров Keenetic отличается простотой установки и настройки, которую осилит даже обычный пользователь. При этом решение Keenetic, что конкретно для SOHO-систем всё ещё редкость, поддерживает 802.11 k/v/r для организации роуминга вместо традиционного грубого отключения клиента от ТД при ослаблении сигнала и оставления его на волю судьбы. Естественно, для полного счастья нужна поддержка этих технологий и со стороны клиентов.
А вообще всё это, по-хорошему, заслуга исключительно программистов и общей политики компании. Как и в нашем сценарии, владельцы старых устройств получают поддержку новых функций, а при необходимости увеличения покрытия могут докупить роутеры посовременнее. Недельная работа связки Ultra II и обновлённого Air оказалась настолько незаметной, что лишь укрепила веру в необходимость создания отдельной серии точек доступа для работы в составе Wi-Fi-системы — желательно в компактном корпусе и с PoE-питанием. Что же, посмотрим. Пока компания занята выходом на зарубежные рынки, а следующее большое обновление моделей запланировано на вторую половину года. |
986,686 | Gamesblender № 410: меняющаяся Cyberpunk 2077, доходная Mortal Kombat 11 и возможная PS4 Super Slim | С вами GamesBlender, еженедельный видеодайджест новостей игровой индустрии от 3DNews.ru. В сегодняшнем выпуске: бесконечная война Epic Games Store с ветряными мельницами Steam; подробности Bloodlines 2; кажется, грядет новая консоль Nintendo. А также другие новости и события игровой индустрии |
986,731 | Если у вас паранойя, то это не значит, что за вами не следят! | Многие ИТ-компании совершенно бесплатно предлагают массу сервисов, обслуживание которых стоит немалых денег. Причина этого проста: пользователь, о котором можно собрать подробную информацию, — это идеальный товар для рекламодателей: количество переходов по рекламным ссылкам, соответствующим запросам пользователей, значительно выше кликов по неперсонализированной рекламе. Неудивительно, что больше всего информации о нас собирают как раз те, кто потом показывает нам рекламу, — поисковые сервисы и социальные сети.
Благодаря Google у нас есть такие известные продукты, как операционная система Android, самый популярный браузер Google Chrome, сервис электронной почты Gmail, видеохостинг Youtube и так далее. Отказаться от этих продуктов и тем самым избавиться от слежения практически невозможно. А избавиться иногда хочется очень сильно, потому что компания отслеживает местоположение устройств с ОС Android, записывает историю поисковых запросов, просмотров видеороликов на Youtube, историю приложений Google и так далее. Ситуация осложняется еще и тем, что с помощью одного и того же аккаунта можно получить доступ практически ко всем продуктам Google, а это означает, что компания может получить очень подробные сведения о пользователе — что он ищет в интернете, какие видео ему нравятся, какие приложения установлены у него на телефоне, кто находится у него в списке контактов, какие места он посещает и так далее. Вся эта информация позволяет составить очень точный портрет пользователя, и ему можно будет предлагать рекламу тех товаров и услуг, которые почти наверняка его заинтересуют. К счастью, компания предлагает довольно широкие возможности для настройки конфиденциальности.
Для отключения отслеживания со стороны Google необходимо перейти в настройки аккаунта и выбрать раздел «Проверьте настройки конфиденциальности». В этом разделе нас прежде всего интересует первый пункт — «Персонализируйте работу с сервисами Google».
Первое, что Google предлагает настроить, — это отслеживание истории приложений и веб-поиска. Компания хранит поисковые запросы и другие действия в различных сервисах Google (например, в «Картах»), информацию о местоположении, языке, IP-адресе, а также сведения о том, как были просмотрены страницы — через браузер или приложение, данные о просмотренных объявлениях или покупках на сайте рекламодателя; недавние приложения и контакты. Все эти данные могут сохраняться даже в офлайн-режиме. Дополнительно данный раздел настроек позволяет включать или отключать историю действий в Google Chrome, а также на сайтах и в приложениях, использующих сервисы Google. Пользователь может просмотреть записанную историю приложений и веб-поиска, очистить ее, а также запретить ее хранить.
Следующий блок в настройках отслеживания — история местоположений. По умолчанию история местоположений отключена. Но если пользователь ее включит, то Google будет создавать карту перемещений на основе геоданных с устройств, на которых пользователь вошел в аккаунт. Причем это будет происходить даже тогда, когда сервисы Google не используются. На карте будут сохраняться данные о том, как часто пользователь бывает в тех или иных местах, сколько времени там проводит и как туда добирается. История местоположений позволит получать более точные результаты поиска адресов и сведения о маршрутах, а также просматривать данные о посещенных местах.
Далее в настройках отслеживания можно отключить запись информации с устройств. При включенной настройке компания хранит в аккаунте контакты, календари, данные о приложениях, музыку с телефонов и планшетов, служебные сведения об устройстве (например, уровень заряда батареи).
В истории голосового управления хранится запись речи пользователя. Запись отправляется в аккаунт в двух случаях — когда пользователь произносит команды (например, «О'кей, Google») и когда нажимает на значок микрофона. В аккаунте можно посмотреть хранящиеся записи, удалить их, а также отключить хранение истории голосового управления.
Последние два блока в настройках отслеживания — история поиска и история просмотров в Youtube. При включенных настройках в аккаунте будут сохраняться поисковые запросы в видеохостинге и история просмотров видеороликов.
В настройках конфиденциальности несколько пунктов посвящены данным, которые могут видеть другие пользователи, — например, геотеги в «Google Фото», подписки на плей-листы Youtube, номер телефона, имя и фамилия пользователя и так далее. Но эти настройки не имеют непосредственного отношения к нашей теме. Упоминаем их только для того, чтобы пользователь на всякий случай проверил, готов ли он делиться той или иной информацией со всеми желающими.
Последний, шестой пункт в настройках конфиденциальности позволяет отключить персонализацию рекламы. Google показывает объявления, учитывая такие факторы, как типы посещаемых веб-сайтов, установленные мобильные приложения, cookie-файлы и многое другое. Но даже при отключенной персонализации реклама Google может использовать анонимные данные пользователей, например сведения о местоположении, тематике посещаемых сайтов или приложений.
Все настройки в аккаунте Google будут работать для всех устройств и браузеров, где пользователь войдет в свой аккаунт.
Кстати, далеко не факт, что после отключения отслеживания в настройках конфиденциальности Google перестанет следить за пользователем. Например, в прошлом году журналисты Associated Press выяснили, что Google не перестаёт отслеживать перемещения пользователя после отключения записи истории местоположений. Повысить конфиденциальность пользователя могут, например, приватные поисковики (такие как DuckDuckGo и StartPage), а также специальные расширения для браузера (например, Privacy Badger, Disconnect).
⇡#Слежение со стороны «Яндекса»
В настройках аккаунта «Яндекса» нет пункта, связанного с конфиденциальностью. Но некоторые настройки, позволяющие ограничить слежение, на этом ресурсе все же есть, и перейти к ним можно с главной страницы «Яндекса», нажав вверху кнопку «Настройки» и выбрав пункт «Настройки портала».
Для нашей задачи в настройках портала «Яндекса» интересны разделы «Мои места», «Поиск», «Реклама».
В «Моих местах» компания хранит адреса места работы и места жительства. Это позволяет быстро строить маршруты домой и на работу. При авторизации в «Яндексе» точки синхронизируются на разных устройствах и доступны в «Яндекс.Картах» и мобильном «Яндекс.Навигаторе». Удалить сведения об адресах можно просто нажатием значка корзины справа от поля адреса.
В разделе «Поиск» есть несколько интересных настроек. Первый подраздел — «Поисковые подсказки». Здесь можно указать системе, что именно нужно подсказывать пользователю при поиске, — историю поисков, сайты, на которые пользователь часто заходит, время посещения сайтов, на которых была найдена какая-либо информация, метки персонализации веб-ответов. Интересно, что пользователь может очистить историю поисковых запросов (хотя просмотреть ее нельзя), а в отношении остальной информации доступно только отключение ее показа, но не удаление истории действий.
Второй подраздел в «Поиске» — «Результаты поиска». Здесь можно настроить, сколько показывать документов на странице поиска, указать язык интерфейса и так далее. Нас здесь интересует блок «Персональный поиск». В нем два пункта — «Учитывать мою историю поиска в результатах» и «Показывать мои любимые сайты в подсказках». Второй пункт не нуждается в пояснениях, а первый означает, что «Яндекс» будет учитывать интересы пользователя, предлагая ответы, которые подходят именно ему. Например, на запрос «Агата Кристи» для меломана, скорее всего, будет предложен официальный сайт российской рок-группы, а для любителя детективов — сайты про Эркюля Пуаро и мисс Марпл.
В разделе «Реклама» можно отключить показ рекламы на главной странице «Яндекса» (да, сделать это так легко!) и персонализацию рекламы в «Яндекс.Директе». Персонализация включает в себя два пункта — учет интересов пользователя и учет его местоположения. Данные для персонализации компания собирает при помощи cookie-файлов, а также сервисов и приложений, которым пользователь разрешил передавать информацию в «Яндекс».
Для доступности настроек портала «Яндекса» необходимо войти в аккаунт. При этом некоторые настройки в другом браузере (или на другом компьютере) придется осуществлять заново, так как они завязаны на cookie-файлы браузера.
⇡#Слежение со стороны Facebook✴ и других соцсетей
Социальная сеть Facebook✴ отслеживает около сотни типов личных данных пользователей: местоположение, возраст, пол, уровень и сфера образования, этническая принадлежность, доходы и собственный капитал, размеры жилья и состав семьи, интересы и увлечения и так далее. При этом полностью запретить компании вести учет и обработку данных пользователя невозможно: ведь пользователь сам указывает данные о себе. Кроме того, многие используют аккаунт Facebook✴ для авторизации на сторонних сайтах. Эту информацию компания запоминает и использует для конкретизации портрета пользователя. Поэтому для того, чтобы соцсеть знала как можно меньше, нужно как можно меньше сообщать ей о себе. Например, в личных данных не стоит указывать свой основной номер телефона (а в отдельных случаях и основную почту), потому что полностью отключить поиск по этому номеру невозможно (его все равно будут видеть по меньшей мере друзья в соцсети).
И все же какое-то отслеживание в Facebook✴ можно отключить. Для этого нужно перейти в настройки аккаунта и проверить разделы «Конфиденциальность» и «Приложения и сайты».
В разделе «Конфиденциальность» можно установить, какая информация о владельце аккаунта будет видна разным категориям пользователей. Здесь же можно разрешить или запретить выдавать данные пользователя в поисковиках. Этот раздел не позволяет запретить компании отслеживать действия пользователя, но помогает хоть каким-то образом сохранить неприкосновенность личной жизни.
В разделе «Приложения и сайты» можно посмотреть, какие сайты и приложения имеют доступ к аккаунту Facebook✴, и указать, можно ли вообще сайтам и приложениям получать такой доступ. По умолчанию приложения и сайты могут прочитать всю публичную информацию из аккаунта Facebook✴, а при необходимости могут запросить и доступ к другим данным. Пользователь всегда может запретить доступ к аккаунту любому приложению или сайту.
Повторим еще раз: избавление от отслеживания Facebook✴ по сути заключается в том, что пользователь сам сообщает этой соцсети как можно меньше информации. Кстати, так же обстоит дело и с другими соцсетями — «ВКонтакте», «Одноклассники» и так далее. Причем настроек, позволяющих отключить отслеживание, здесь еще меньше, чем в Facebook✴.
⇡#Проверка разрешений для Windows и приложений на компьютере
Веб-камера и микрофон на компьютере для того и существуют, чтобы записывать видео и звук. Но доступ к этим устройствам наиболее чувствителен для пользователя в отношении его приватности. Поэтому полезно время от времени проверять, какие приложения на компьютере имеют к ним доступ.
Расскажем, как проверить разрешения для приложений в Windows 10. Для этой цели в «Параметрах» системы выделен специальный раздел — «Конфиденциальность». Этот раздел, в свою очередь, состоит из двух подразделов — «Разрешения Windows» и «Разрешения приложений».
В первом подразделе можно запретить системе предоставлять приложениям идентификатор рекламы, сайтам — список языков, а самое главное — запретить системе вести журнал действий на компьютере (и синхронизировать действия в облако). Можно также очистить существующий журнал действий.
В подразделе «Разрешения приложений» можно проверить все пункты: «Расположение», «Камера», «Микрофон», «Сведения учетной записи», «Контакты», «Электронная почта» и так далее. Посмотрите, что за приложения имеют доступ к тем или иным разделам системы или интерфейсам компьютера. И если, например, со Skype все понятно: это приложение должно иметь доступ к микрофону и веб-камере для видеосвязи, то какая-нибудь программа типа HP Smart вряд ли получила доступ к камере при осознанном желании пользователя.
Компания Apple хранит историю покупок и использования приложений, а также загруженные на серверы компании календари, фотографии и документы. Вместе с тем компания заявляет, что не собирает о пользователях личную информацию — например, голосовые запросы в Siri, фотографии, данные о навигации. Так, при передаче голосовых запросов Siri информация связывается не с Apple ID, а с устройством через случайный идентификатор, который можно легко сбросить.
Настройки конфиденциальности в MacOS связаны с аккаунтом Apple ID. Доступ к настройкам можно получить через страницу «Данные и конфиденциальность». Здесь компания предлагает всего четыре пункта — «Получение копии данных», «Исправление данных», «Временная деактивация учетной записи» и «Удаление учетной записи». Первая настройка позволяет получить копию данных, хранящихся на серверах Apple, вторая — исправить личную информацию о себе. Третий и четвертый пункт в комментариях не нуждаются, отметим только, что если учетная запись неактивна, то невозможно пользоваться ею и любыми сервисами Apple.
Говоря об отслеживании в MacOS, следует отметить настройки голосового помощника Siri. Чтобы облегчить распознавание речи и повысить точность ответов, некоторая информация (например, имя, контакты, песни из медиатеки и история поиска) отправляется на серверы Apple. Кроме того, при включенной геолокации Siri отправляет на серверы и геоданные. Информация о местонахождении позволяет получать релевантные результаты поиска, предложений и новостей.
Отправку данных в Siri можно контролировать через настройки Siri в MacOS. Для этого надо выбрать в меню Apple «Системные настройки», затем нажать на значок «Siri». Здесь нас интересует кнопка «Предложения Siri и конфиденциальность». Нажав ее, можно отказаться от того, чтобы голосовой помощник использовал данные приложений «Заметки», «Почта» и браузера Safari.
⇡#Отслеживание действий в Linux
Ubuntu — одна из самых популярных сборок Linux — отправляет поисковые запросы в Unity Dash на сайт productsearch.ubuntu.com, а так же на сайты сторонних компаний: Amazon, Facebook✴ и так далее. Это помогает улучшить поиск и выдать наиболее релевантный результат. Но эта функциональность дает возможность ИТ-компаниям отслеживать действия пользователя, поэтому для повышения конфиденциальности можно отключить онлайн-поиск.
Для отключения онлайн-поиска необходимо набрать в панели Unity «Параметры» (или «Settings», в результатах нажать на «Параметры системы», в открывшемся окне выбрать «Защита и приватность» и перейти на вкладку «Поиск». Здесь нужно просто перевести переключатель в положение «Выключено».
⇡#Защита от отслеживания при помощи cookie
За пользователям следят не только крупные интернет-компании типа Google и «Яндекса». Даже обыкновенные интернет-магазины не против узнать о пользователях больше, чтобы можно было предложить более подходящие товары. Делается это обычно при помощи файлов cookie.
Файлы cookie сами по себе не вредоносны. Они используются для того, чтобы сайт мог запомнить пользователя и его действия на странице. Это нужно, например, в интернет-магазинах, чтобы система не забыла, какой товар был добавлен в корзину. Но аналогичным образом в файл можно записывать и другую информацию о пользователе, которую потом сайт может получить и использовать в своих целях. Кроме того, куки может создавать не сам сайт, а сторонняя рекламная сеть, к которой он подключен, и такие куки позволяют собрать довольно подробную информацию о пользователе, так как к одной и той же рекламной сети могут быть подключены десятки и сотни сайтов. И такие сторонние куки как раз бывает полезно отключать. Отключать куки полностью не рекомендуется, так как тогда нарушится работа некоторых сайтов — например, будет невозможно войти в аккаунт любого интернет-сервиса.
Отключить отслеживание с помощью cookie можно в браузере. Для отключения сторонних куков в Google Chrome перейдем в настройки браузера и выберем раздел «Дополнительные». В нем нужен подраздел «Конфиденциальность и безопасность ». Здесь нажимаем на кнопку «Настройки контента» и далее — на кнопку «Файлы cookie».
Чтобы запретить файлы cookie от сторонних сайтов, которые размещают рекламу или изображения, нужно установить флажок «Блокировать данные и файлы cookie сторонних сайтов». Сторонние файлы cookie будут заблокированы даже в том случае, если сайты добавлены в список исключений.
Для отключения сторонних куков в «Яндекс.Браузере» нужно перейти в настройки браузера, выбрать раздел «Сайты», нажать кнопку «Расширенные настройки сайтов» и в блоке «Сookie-файлы» включить опцию «Блокировать данные и файлы сторонних сайтов».
Попасть на страницу отключения cookie в Mozilla Firefox немного проще, чем в Google Chrome. Для этого в меню программы выбираем пункт «Блокировка содержимого», и в браузере сразу откроется нужная страница с настройками. В первом же блоке выбираем вариант блокировки содержимого — «Стандартная», «Строгая» и «Персональная». Для отключения сторонних куков нужно выбрать либо вариант «Строгая», либо соответствующий пункт в варианте «Персональная».
В качестве дополнительной меры безопасности можно потребовать от браузеров удалять cookie-файлы после завершения сессии. Но в таком случае каждый раз придется заново заходить во все аккаунты.
Напомним, что при полном отключении cookie-файлов пользователь не сможет войти в аккаунты, пользоваться «Корзиной» в интернет-магазинах и осуществлять на сайтах любые действия, требующие запоминания действий пользователя. Так что переусердствовать с отключением cookie не стоит.
⇡#Проверка на несанкционированное слежение
Следить за пользователем могут и недоброжелатели с целью украсть конфиденциальную информацию, но это обычно происходит несанкционированно — при помощи вирусов и шпионских программ. Эти программы не афишируют свою деятельность, так что отключить им доступ, например, к клавиатуре, камере, микрофону стандартным путем не удастся. Правда, у некоторых антивирусов (например, у «Касперского») есть функция блокировки доступа к камере. То есть если какой-либо вирус попытается получить доступ к камере, эта попытка будет заблокирована, даже если сам вирус не будет опознан.
Бороться здесь можно только при помощи антивирусов и других подобных программ и сервисов. Необходимо регулярно запускать полную проверку компьютера на вирусы и вредоносные программы, а также соблюдать элементарные нормы предосторожности: не скачивать подозрительные файлы, программы устанавливать только с официальных сайтов или из магазинов приложений, не посещать неблагонадежные сайты и так далее.
Чтобы полностью избавиться от слежения в интернете, надо прекратить им пользоваться. Но ограничить чужое любопытство вполне реально — при помощи настроек конфиденциальности в аккаунтах, отключения сторонних куков в браузере, использования антивируса. Это поможет, по крайней мере, избавиться от слишком навязчивой слежки.
Будем рады вашим советам и лайфхакам по защите от слежки в комментариях к этому материалу! И помните — сайт 3DNews.ru не следит за вами! Во всяком случае, пока ;)
**Материалы по теме:** |
986,747 | GeForce GTX против GeForce RTX в играх будущего | Первая серия тестов трассировки лучей на ускорителях без аппаратных RT-блоков завершилась позитивными результатами для владельцев старших моделей GeForce GTX. В робких и до поры до времени немногочисленных попытках освоить гибридный рендеринг разработчики не жадничают с эффектами DXR и позволяют регулировать их качество в достаточной степени, чтобы продлить жизнь мощным GPU прошлого поколения. В итоге GeForce GTX 1080 Ti может поспорить с GeForce RTX 2060 по быстродействию в Battlefield V и Shadow of the Tomb Raider, обеспечивая уверенно высокую частоту смены кадров в режиме 1080p. Но результаты бенчмарков Metro Exodus дали понять, что это лишь временное положение вещей. К этой игре GeForce GTX 1080 Ti допущен на правах бедного родственника.
Смогут ли графические процессоры, лишенные специализированных функций трассировки лучей, выжить в проектах следующей волны? Для того чтобы дать ответ на этот вопрос, мы не станем делать предсказания на основе результатов в уже выпущенных играх. К обновлению драйвера с поддержкой DXR на GPU архитектуры Pascal и младших чипах семейства Turing были опубликованы тестовые версии двух грядущих проектов, использующих гибридный рендеринг, — Atomic Heart и Justice. Кроме того, возможность приоткрыть завесу над будущим компьютерных игр предоставляют и бенчмарк 3DMark Port Royal, и деморолик Reflections на движке Unreal Engine 4. Эти тесты лежат далеко за пределом возможностей «Паскаля» и будут решать дальнейшую судьбу лучших видеокарт сегодняшнего дня — серии GeForce RTX.
**Тестовый стенд, методика тестирования**
|Тестовый стенд
|CPU
|Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
|Материнская плата
|ASUS MAXIMUS XI APEX
|Оперативная память
|G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 Гбайт (3200 МГц, CL14)
|ПЗУ
|Intel SSD 760p, 1024 Гбайт
|Блок питания
|Corsair AX1200i, 1200 Вт
|Система охлаждения CPU
|Corsair Hydro Series H115i
|Корпус
|CoolerMaster Test Bench V1.0
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|ПО для GPU NVIDIA
|NVIDIA GeForce RTX 20
|NVIDIA GeForce Game Ready Driver 419.67
|NVIDIA GeForce GTX 10/16
|NVIDIA GeForce Game Ready Driver 425.31
Показатели средней и минимальной частоты кадров выводятся из массива времени рендеринга индивидуальных кадров, созданного с помощью утилиты OCAT. Тест 3DMark Port Royal приводит собственную статистику средней кадровой частоты.
Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел выбирается значение, соответствующее 1-му процентилю распределения.
**Участники тестирования**
В тестировании производительности приняли участие следующие видеокарты:
Бенчмарк грядущей игры Atomic Heart не содержит каких бы то ни было настроек, помимо возможности включить масштабирование кадра с помощью DLSS, а максимальное разрешение экрана составляет 2560 × 1600 пикселов. Трассировка лучей здесь всегда активна. По той причине, что движок Atomic Heart использует DXR для рендеринга двух различных эффектов — теней и отражений света (включая множественную трассировку лучей между несколькими зеркальными поверхностями), тестовая сцена представляет собой серьезную задачу даже для ускорителей на чипах Turing с выделенными RT-ядрами. Старшие модели NVIDIA (GeForce RTX 2080 и RTX 2080 Ti) с запасом превосходят отметку 60 кадров/с в режиме 1080p, в то время как RTX 2060 и RTX 2070 зажаты в диапазоне 45–55 FPS. Напротив, при разрешении 1440p даже GeForce RTX 2080 Ti не достиг порогового значения 60 FPS, а результаты GeForce RTX 2060 упали ниже 30 FPS.
Финальная версия Atomic Heart наверняка позволит регулировать качество эффектов DXR, чтобы снизить нагрузку на графический процессор. Кроме того, у разработчиков еще есть несколько месяцев для всесторонней оптимизации движка. Но в существующем виде игра явно превосходит возможности любых ускорителей на графических процессорах Pascal. Все, на что способен GeForce GTX 1080 Ti, — это 26 FPS при разрешении 1080p и 15 FPS в режиме 1440p, что уж говорить о менее производительных устройствах серии GTX 10.
При столь высокой нагрузке, как в Atomic Heart, даже видеокарты GeForce GTX 1660 и GTX 1660 Ti, лишенные специализированных блоков трассировки лучей, имеют преимущество перед большинством моделей прошлого поколения. Оба новых ускорителя средней ценовой категории превосходят GeForce GTX 1080 — такого разгрома архитектуры Pascal мы еще не видели. Но как бы то ни было, для того, чтобы развить приемлемую частоту смены кадров, абсолютной вычислительной мощности чипа TU116 все еще совершенно недостаточно.
Китайскую MMORPG Justice нельзя без оговорок назвать игрой будущего, ведь она была запущена еще в прошлом году. Но в ближайшее время разработчики намерены внедрить в Justice эффекты трассировки лучей и выпустили отдельный бенчмарк для оценки их производительности. В отличие от других тестов в сегодняшней подборке, движок Justice не настолько перегружен эффектами DXR, чтобы поставить на колени любые GPU, за исключением старших моделей семейства Turing. Ray Tracing здесь используется для рендеринга однократных отражений в зеркальных поверхностях, теней, а также преломления света в жидкой среде (caustics). Кроме того, без учета трассировки лучей Justice является довольно-таки нетребовательной игрой, как и положено любым соперникам World of Warcraft. А благодаря возможности отключить трассировку лучей в тесте Justice, мы провели базовую линию производительности участников теста и оценили воздействие RT на частоту смены кадров в процентном отношении.
Полученные данные вполне соответствуют той картине, которую мы наблюдали в других проектах с условно нетребовательными эффектами DXR (Battlefield V и Shadow of the Tomb Raider). Трассировка лучей в равной степени влияет на производительность игры при трех различных разрешениях экрана (1080p, 1440p и 2160p), если в кристалле GPU нет специализированной логики для расчетов траектории лучей. Так, «зеленые» видеокарты прошлого поколения в большинстве случаев теряют от 74 до 79 % средней кадровой частоты (только GeForce GTX 1080 Ti отделался 63 % в режиме 1080p). Новинки на чипе TU116 (GeForce GTX 1660 и GTX 1660 Ti) оказались в более выгодном положении за счет прогрессивной организации шейдерных ALU и пострадали лишь на 62–65 % FPS.
И разумеется, лучший результат продемонстрировали ускорители на чипах Turing с RT-ядрами. При разрешении 1080p быстродействие видеокарт серии GeForce RTX пострадало всего лишь на 18–27, в режиме 1440p — на 21–32, а в 2160p — на 31–33 %. Обратите внимание, как сильно в этой группе выделяется флагманская модель — GeForce RTX 2080 Ti понес заметно меньшие потери по сравнению с RTX 2060, RTX 2070 и RTX 2080 при разрешениях ниже 2160p. Впрочем, своими выдающимися результатами при условно низких разрешениях новые GPU обязаны не только архитектуре Turing, но и тому обстоятельству, что без эффектов DXR частота смены кадров в Justice ограничена быстродействием центрального процессора на уровне 126–127 FPS.
В абсолютных показателях частоты смены кадров Justice с трассировкой лучей легко дается всем видеокартам под маркой GeForce RTX при разрешении экрана 1080p и 1440p. GeForce RTX 2060 отступил на 3 кадра/с от критического значения 60 FPS в режиме 1440p, но старшие модели уверенно преодолели эту границу. А вот в режиме 4К даже GeForce RTX 2080 Ti не достиг 60 FPS, в то время как RTX 2060 опустился ниже 30.
Среди видеокарт на чипах Pascal нет ни одного устройства, способного вывести Justice на уровень 60 FPS. Ускорители серии GTX 10 прикованы к режиму 1080p, да и то лишь три старшие модели (GTX 1070 Ti, GTX 1080 и GTX 1080 Ti) по своим возможностям соответствуют минимальному критерию 30 FPS. То же относится к GeForce GTX 1660 и GTX 1660 Ti, хотя, к чести новинок NVIDIA, стоит признать, что в тесте Justice они снова выступили не хуже GeForce GTX 1080.
|Justice
|1920 × 1080
|RT Off
|RT On
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-18%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-20%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-21%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-27%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-65%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-64%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-63%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-74%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-74%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-77%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-77%
|Justice
|2560 × 1440
|RT Off
|RT On
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-21%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-30%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-33%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-32%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-65%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-64%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-76%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-77%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-77%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-78%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-79%
|Justice
|3840 × 2160
|RT Off
|RT On
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
|100%
|-31%
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|100%
|-23%
|NVIDIA GeForce RTX 2070 FE (8 Гбайт)
|100%
|-33%
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|100%
|-33%
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|100%
|-63%
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|100%
|-62%
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|100%
|-77%
|NVIDIA GeForce GTX 1080 (8 Гбайт)
|100%
|-78%
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|100%
|-77%
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|100%
|-78%
|NVIDIA GeForce GTX 1060 (6 Гбайт)
|100%
|-79%
В отличие от других разделов пакета 3DMark, синтетический тест гибридного рендеринга Port Royal состоит из единственной сцены, поэтому итоговая оценка в баллах, которую получили видеокарты, прямо пропорциональна средней частоте смены кадров. Если представить себе игру с настолько высокой плотностью эффектов DXR, как в Port Royal (а здесь на Ray Tracing основаны все главные компоненты освещения), то лишь один из протестированных ускорителей обладает подходящим для нее уровнем быстродействия — GeForce RTX 2080 Ti. Да и то все, на что оказался способен флагманский GPU нового поколения, — это перешагнуть отметку 30 FPS в стандартном для Port Royal разрешении 1440p.
Вместе с тем 3DMark наглядно продемонстрировал преимущество архитектуры Turing перед графическими процессорами Pascal, которое распространяется на весь арсенал моделей GeForce RTX. Если в современных играх с поддержкой трассировки лучей старшие представители серии GeForce 10 (GTX 1080 и GTX 1080 Ti) могут поспорить с GeForce RTX 2060, то здесь флагман прошлого поколения ровно в два раза уступает младшему Turing по средней кадровой частоте.
Если двигаться вниз по модельному ряду GeForce 10, то отставание GeForce GTX 1070 от GeForce RTX 2060 достигает трехкратного значения, а у GeForce GTX 1060 дефицит вычислительных ресурсов переходит в критическую фазу, когда видеокарте требуется несколько секунд, чтобы сформировать единственный кадр. И дело вовсе не в объеме оперативной памяти GPU, ведь GeForce GTX 1660 и GTX 1660 Ti, оснащенные 6 Гбайт RAM, не уступают своим ближайшим аналогам на чипах Pascal (GTX 1070 и GTX 1070 Ti) с 8 Гбайт локальной памяти и даже превосходят их по средней частоте смены кадров и оценке в баллах.
Ранее короткий ролик Reflections на движке Unreal Engine 4 уже не раз участвовал в тестах трассировки лучей и DLSS на видеокартах GeForce RTX. Однако для исследования возможностей DXR на чипах предыдущего поколения NVIDIA создала отдельную версию программы и позволяет скачать ее с собственного сайта вместе с бенчмарками Justice и Atomic Heart. Reflections лишился поддержки DLSS, зато исчезло и ограничение по разрешению экрана (раньше ролик был привязан к режимам 1440p и 2160p, на которых была выполнена тренировка нейросети DLSS).
В обновленной версии ролика есть иная особенность, которая затрудняет его применение в качестве универсального бенчмарка трассировки лучей: частота смены кадров на старших ускорителях серии GeForce RTX (RTX 2080 и RTX 2080 Ti) не может превышать 48 FPS, а для всех остальных моделей установлен лимит в 24 FPS. Однако это препятствие вступает в силу лишь при разрешении 1080p, когда у соответствующих GPU есть избыток вычислительной мощности. Если о каком-либо избытке быстродействия вообще можно рассуждать применительно к Reflections, ведь эта сцена практически целиком освещается при помощи трассировки лучей.
В этом режиме GeForce RTX 2060, RTX 2070 и 2080 Ti достигли разрешенных значений 24 и 48 FPS соответственно, в то время как лучшая из потребительских видеокарт прошлого поколения (GeForce GTX 1080 Ti) набрала скромные 16 кадров/с. Как видите, паритет между GeForce RTX 2060 и GTX 1080 Ti, который мы зафиксировали в предыдущей части статьи, вновь был нарушен при столь агрессивной нагрузке, как в демо Reflections.
Рендеринг Reflection в режиме 1440p является пределом возможностей для любого из современных GPU без помощи таких методов, как DLSS. Даже GeForce RTX 2080 Ti с трудом преодолел отметку 30 FPS, а быстродействие видеокарт без RT-блоков характеризуется однозначными числами.
Модели серии GeForce 16 вновь продемонстрировали достоинства архитектуры Turing: при разрешении экрана ниже 4К GeForce GTX 1660 и GTX 1660 Ti не отстают от GeForce GTX 1080. Положение меняется при разрешении 2160p, когда программе недостаточно 6 Гбайт оперативной памяти GPU, но в таком случае Reflections не по зубам и самому GeForce RTX 2080 Ti.
Вслед за первой стычкой GeForce GTX и GeForce RTX на поле игр с трассировкой лучей мы сравнили быстродействие аппаратной и программной реализации DXR в перспективных проектах и двух откровенно футуристических тестах гибридного рендеринга.
Предварительные версии Atomic Heart и Justice дают понять, как будут выглядеть компьютерные игры в ближайшие несколько месяцев. И здесь, увы, уже нельзя поставить на один уровень какие бы то ни было устройства NVIDIA прошлого и современного поколения. Даже в Justice — а это сравнительно легкая игра без трассировки лучей — GeForce GTX 1080 Ti не достиг оптимального уровня быстродействия в 60 FPS при разрешении 1080p, а в Atomic Heart бывшему флагману не светят и минимальные 30. В обоих тестах GeForce RTX 2060 превосходит GeForce GTX 1080 Ti практически вдвое. При столь печальных результатах еще недавно столь могучего GeForce GTX 1080 Ti обсуждать достижения других видеокарт на чипах Pascal, пожалуй, и вовсе не стоит.
Да и младшие представители серии GeForce RTX в такой тяжелой игре, как Atomic Heart, уже близки к пределу своих возможностей и оказались заперты в режиме 1080p, хотя прекрасно чувствуют себя в Justice. Вполне может сложиться и такая ситуация, что ко времени массового внедрения гибридного рендеринга те устройства, которые инициировали поворот игроделов в этом направлении, будут уже не актуальны.
А что касается деморолика Reflections на движке Unreal Engine 4 и тем паче теста Port Royal в пакете 3DMark, то в пейзаже уже не завтрашнего, а послезавтрашнего дня совсем нет места GPU без аппаратных расчетов трассировки лучей. А если начистоту, то и современным ускорителям Turing неминуемо придется уступить место новой итерации чипов NVIDIA. |
986,825 | Heaven’s Vault — трудности перевода. Рецензия | |
Жанр |Приключение
|
Издатель |Inkle
|
Разработчик |Inkle
|
Cистемные требования |Процессор Pentium 4 2,0 ГГц/AMD Athlon XP 1700+ 1,46 ГГц, 4 Гбайт ОЗУ, видеокарта с 2 Гбайт памяти и поддержкой DirectX 10, например NVIDIA GeForce GTX 660/AMD Radeon HD 7850, 5 Гбайт на жестком диске, интернет-соединение и учетная запись в Steam
|
Дата выхода |16 апреля 2019 года
|
Возрастной ценз |от 17 лет
|
Платформы |PC, PlayStation 4
*Игра протестирована на PС*
Забавно, но в индустрии уже давно принят негласный стандарт археологов и прочих расхитителей гробниц. Собеседования проходят лишь те, кто в равной степени умеет хорошо карабкаться по скалам и ловко обращаться с разным оружием. Убивать, шутить, страдать, еще убивать. Вот только все эти занятия не имеют ничего общего с профессией. К счастью, на этот раз методика отбора дала сбой, и у нас появилась Heaven’s Vault. Неординарная, завораживающая своим удивительным миром и позволяющая почувствовать себя настоящим исследователем-лингвистом, стоящим на пороге великих открытий.
Да и вообще, кто бы мог подумать, что обычное поручение по поиску пропавшего коллеги-археолога обернется грандиозным приключением на двадцать, а то и все тридцать часов? В игре одна найденная деталь ведет к другой, та — к третьей, и вот уже прочесываешь каждый миллиметр очередных древних развалин, лишь бы не упустить какую-нибудь надпись или артефакт. А посмотреть здесь есть на что!
Пустынные планеты, заброшенные сооружения древних цивилизаций, необычные «сады мертвых» и прочая, и прочая. Несмотря на простоту своих механик (в игре требуется лишь ходить, разговаривать и искать точки, с которыми можно взаимодействовать), Heaven’s Vault работает на топливе из чистого интереса. Стоит поймать волну, как игра уже не отпускает и постоянно предлагает что-то новое, позволяя все больше и больше узнавать о древних цивилизациях.
Попутно пытаешься по остаткам былого величия понять, что они собой представляли, как жили, что с ними стало. Ведь сейчас человечество потеряло практически все знания о продвинутых технологиях, разучилось строить огромные корабли для перемещения между лунами и даже помощников-роботов не создает само, а находит в процессе раскопок. Что произошло, что привело к таким последствиям? Ответ в финале может показаться довольно банальным для научной фантастики, однако в нашем случае важен не финальный штрих, а чарующий процесс создания картины.
Heaven’s Vault неспешна, как некоторые из ее космических рек. Медленно плавая по ним под переливы красивой музыки, беседуешь со своим железным напарником о смысле жизни и смерти, природе этих самых рек и многом, многом другом. Вообще, разговоры оказались одной из самых примечательных особенностей игры — они написаны очень естественно, а их количество удивляет.
Чаще всего придется болтать с сопровождающим роботом, поскольку на заброшенных планетах с населением туговато, однако ни одна из случайных бесед не выбивается из контекста. Во время исследования Алия, главная героиня, и ее спутник говорят о том, что видят или о чем думают: о найденных артефактах, окружении, погоде, опасности, особенностях быта древних народов. Игра практически никогда не оставляет наедине с собственными мыслями, а постоянно сообщает через персонажей массу интересных подробностей.
Переговоры с другими людьми строятся немного по-другому: здесь уже появляется выбор из трех вариантов, но без деления на хорошие и плохие. Просто беседуешь, задаешь интересующие вопросы, получаешь (или нет) необходимую информацию, в некоторых случаях пытаешься торговаться, в других — консультироваться. Вообще, тот факт, что за двадцать часов, которые ушли на первое прохождение, ни один из диалогов не показался скучным, говорит о многом.
Да и нелинейность тоже играет проекту на руку. Если не хотите кому-то платить за нужные сведения, то всегда можно обойтись своими силами. Продавать робота или нет — ваше дело, вдруг он надоел своей болтовней и холодным рациональным мышлением. Heaven’s Vault никогда не оставляет игрока на развилке с ярким указателем — ты просто медленно плывешь по сюжетному течению, поступая так, как хочется, а там будь что будет.
У Heaven’s Vault есть еще один очень важный пласт, без которого игре вряд ли удалось бы выделиться. Давным-давно люди разговаривали на языке, который теперь называют древним. Умеющих его читать не так много, а сама героиня в начале игры знает лишь несколько простеньких слов и кое-как складывает их в небольшие фразы. Но чем больше текстов переводишь, тем обширнее становится словарный запас Алии, что позволяет ей расшифровывать все более и более длинные предложения. В какой-то мере это похоже на прокачку характеристик персонажа… или самое настоящее изучение иностранного языка!
Сам процесс, конечно, выполнен с условностями. У символов есть всего три-четыре варианта перевода — необходимо выбрать один и поставить все так, чтобы слова сложились в более-менее осмысленный текст. Причем можно попробовать догадаться как по контексту, так и по форме иероглифа. Например, знаки, связанные с водой, имеют схожие черты, так что наверняка нечто незнакомое, но похожей формы будет либо обозначать жидкость, либо иметь к ней какое-то отношение. Однако нередко возникают ситуации, когда одно слово способно кардинально изменить всю фразу. Вот, скажем, Боги
*приветствуют* странника или же *охраняют*? А вот это *мы* или все-таки *я*? Вроде бы и то, и то звучит правильно, но разница огромна.
Получается, что в процессе изучения разнообразных текстов создаешь собственную картину прошлого, исходя из своих же переводов. Игра, в свою очередь, поддерживает интригу, подтверждая правильность того или иного слова только в том случае, если его значение было верно выбрано в нескольких независимых фразах. В случае же ошибки некорректный вариант вычеркивается, а система предлагает заменить его оставшимися в списке. Вот так выглядит процесс расшифровки:
Самое смешное, что тексты по большей части не влияют ни на что, кроме пополнения словарного запаса героини и вашего личного желания узнать, что же все-таки написано на найденной недавно кружке или кинжале. И это любопытство не отпускает настолько, что можно часами копаться в списке фраз, тут и там подправляя значения исходя из изменившегося контекста. Получился практически идеальный симулятор переводчика!
Причем ближе к концу настолько привыкаешь к странным закорючкам и способу письма древних жителей, что начинаешь понимать смысл фраз без каких-либо подсказок. Разработчики говорили, что планировали создать имитацию, а не полноценный язык, но даже в этом случае результат получился очень достойным, а саму идею и ее воплощение можно назвать одной из самых интересных игровых механик за последние несколько лет. Кстати, весь накопленный словарный запас переносится в «Новую игру +», так что если за первое прохождение не удалось все понять, то во втором заходе будет куда проще.
Конечно же, когда игру делает небольшая команда, это всегда заметно. В данном случае очень сложно привыкнуть к визуальному стилю. С одной стороны, в статике он выглядит вполне неплохо, однако стоит куда-то пойти, сразу вылезает практически полное отсутствие анимации, а моделька персонажа превращается в полупрозрачный, еле ковыляющий манекен. Еще страннее это выглядит на оживленной улице, по которой плавают фактически призраки, которые почему-то проходят через двери, не открывая их. Бр-р-р. Да и сочетание трехмерного окружения с двухмерными персонажами в некоторых моментах смотрится удачно, а в других с головой выдает маленький бюджет.
Еще один неудобный момент, больше похожий на банальную ошибку, — стоит начать диалог, как с экрана пропадают все маркеры. И это в игре, завязанной на исследованиях! Приходится останавливаться, ждать, пока либо героиня, либо напарник проговорятся, а уже потом идти дальше, иначе велик шанс что-то пропустить. Впрочем, беседы практически устраняют негатив, тем более это вполне чинится патчами, которыми студия продолжает полировать игру после релиза.
И серьезно ее улучшать. В списке недостатков у меня на первом месте стояла необходимость каждый раз самостоятельно плыть от одной луны к другой, что под конец уже порядком утомляло, однако после новой заплатки перемещаться по космическим рекам позволили мгновенно (с условием, что пункт назначения находится в уже исследованной области). Такое решение значительно экономит время, поскольку дорога в один конец вполне могла затянуться на добрый десяток минут. Правда, при этом все равно не хватает телепортации внутри локаций — если хочется обменять у торговца одни артефакты на другие, то каждый раз придется топать к нему от места посадки судна.
Есть и несколько других проблем по технической части (вроде не всегда нормально работающей камеры во время диалогов), однако такими мелочами не перебить очарование Heaven’s Vault. Своей размеренностью и кое-где даже схематичностью она может отпугнуть любителей игр, вылизанных от и до, однако даже в этом случае ей стоит дать шанс. Неторопливо прогуливаться по удивительным планетам в поисках артефактов древних цивилизаций, попутно изучая историю и давно умерший язык, куда интереснее, чем может показаться на первый взгляд.
....
Расшифровка текста…
*День первый месяца второго года ХХХХ* *Привет, Небула. Ты прекрасна сегодня. Собственно, как и всегда. Каждый, кто хоть раз плавал по твоим космическим рекам, кто осмелился покинуть свою луну, игнорируя предупреждения о том, что за ее пределами можно потерять себя, подтвердит мои слова. Хотя не исключаю, что опасающиеся были все-таки правы. Стоит увидеть тебя сквозь стекло иллюминатора, и сердце навсегда останется здесь, в космосе. С тобой.*
Операция завершена
**Достоинства:**
интересная механика переводов;
шикарная атмосфера космических путешествий;
продуманный мир.
**Недостатки:**
внешний вид довольно странный;
отсутствие быстрого перемещения внутри локаций;
небольшие технические недоработки.
|
|
В статике картинка выглядит приятно, однако стоит начать двигаться, как магия разрушается. За десятки часов мне так и не удалось толком привыкнуть к ковыляющим полупрозрачным моделькам персонажей.
|
|
Звуковые эффекты, как и музыка, приятны, однако треков определенно не хватает, а если долго что-то исследовать или куда-то плыть, то они еще и внезапно обрываются.
|
|
Проще всего описать игру фразой «симулятор археолога-лингвиста». Здесь нет экшена и перестрелок, однако изучение незнакомого языка на пару с интересным сюжетом невероятно затягивают.
|
|
Не предусмотрена.
|
|
Heaven’s Vault на бумаге может показаться скучной, однако стоит запустить ее и отправиться исследовать Небулу, как оторваться от экрана уже невозможно — интересная механика перевода и неспешный, но выверенный темп повествования и исследований увлекают не на шутку.
*Оценка: * *8,5/10* **Видео**: |
986,832 | Компьютер месяца — май 2019 года | Первые две трети мая традиционно считаются самым… спокойным периодом в году, когда речь заходит о компьютерной индустрии. Производители железа не делают крупных анонсов — потому что уже в конце месяца стартует ежегодная выставка Computex, на которой крупнейшие игроки представляют массу новейшей продукции. В этот раз мы ожидаем громкие анонсы AMD — официально будут представлены процессоры Ryzen 3000 (по нашим данным, выход в продажу «красных» чипов случится в июле, а то и в августе) для платформы AM4, а также графические ускорители поколения Navi. Наверняка что-то интересное припасли и вечные конкуренты — Intel и NVIDIA.
Очередной выпуск «Компьютера месяца» традиционно выходит при поддержке компьютерного магазина «Регард». На сайте вы всегда можете оформить доставку в любую точку нашей страны и оплатить заказ онлайн. Подробности можете прочитать на этой странице. «Регард» среди пользователей славится достаточно адекватными ценами на компьютерные комплектующие и большим выбором продукции. К тому же у магазина есть услуга по бесплатной сборке: вы составляете конфигурацию — сотрудники фирмы ее собирают.
«Регард» — партнер рубрики, поэтому в «Компьютере месяца» мы ориентируемся на продукцию, которая продается именно в этом магазине. Любая сборка, отображенная в «Компьютере месяца», — это всего лишь ориентир. Ссылки в «Компьютере месяца» ведут на соответствующие категории товаров магазина. Кроме того, в таблицах указаны актуальные на момент написания статьи цены, округленные в большую сторону до значения, кратного 500 рублям. Естественно, за время «жизненного цикла» материала (один месяц со дня публикации) стоимость определенных товаров может как увеличиться, так и уменьшиться.
Для новичков, которые все никак не решаются самостоятельно «смастерить» себе ПК, вышло подробное пошаговое руководство по сборке системного блока. Получается, что в «Компьютере месяца» я рассказываю, из чего собрать компьютер, а в руководстве — как это сделать.
Напоминаю, что в сборках «Компьютера месяца» я больше не рекомендую жесткий диск определенного объема. Просто в комментариях к каждому выпуску постоянно возникают дискуссии на этот счет. Одни считают, что HDD в компьютере уже давно не нужен. Другие не готовы тратиться на SSD, считая, что от него нет толку в игровом ПК. Третьи насмехаются над объемом, предлагая накопители на 3, 4 терабайта и больше. Как видите, всем не угодишь. Согласен с мнением, что организация дисковой подсистемы в ПК — это сугубо индивидуальный подход. Поэтому поступайте так, как считаете нужным.
«Входной билет» в мир современных ПК-игр. Система позволит играть во все ААА-проекты в разрешении Full HD преимущественно на высоких настройках качества графики, но иногда придется выставлять и средние. Подобные системы не имеют серьезного запаса прочности (на ближайшие 2-3 года), изобилуют компромиссами, нуждаются в апгрейде, но и стоят меньше остальных конфигураций.
|
Стартовая сборка
|
Процессор |AMD Ryzen 3 2300X, 4 ядра, 3,5 (4,0) ГГц, 8 Мбайт L3, AM4, OEM
|6 500 руб.
|Intel Core i3-8100, 4 ядра, 3,6 ГГц, 6 Мбайт L3, LGA1151-v2, OEM
|8 500 руб.
|
Материнская плата |AMD B350
|Примеры:
• Gigabyte GA-AB350M-DS3H V2;
• ASRock AB350M-HDV R3.0
|4 500 руб.
|Intel H310 Express
|Примеры:
• ASRock H310M-HDV;
• MSI H310M PRO-VD;
• GIGABYTE H310M H
|4 000 руб.
|
Оперативная память |8 Гбайт DDR4-3000 для AMD:
• G.Skill Aegis (F4-3000C16S-8GISB)
|3 500 руб.
|8 Гбайт DDR4-2400 для Intel:
• ADATA Premier
|3 000 руб.
|
Видеокарта | AMD Radeon RX 570 8 Гбайт:
• Sapphire Pulse (11266-36-20G)
|13 500 руб.
|
Накопитель |SSD, 240-256 Гбайт, SATA 6 Гбит/с
|Примеры:
• Crucial BX500 (CT240BX500SSD1);
• ADATA Ultimate SU655 (ASU655SS-240GT-C)
|2 500 руб.
|
Процессорный кулер |DeepCool GAMMAXX 200T
|1 000 руб.
|
Корпус |Примеры:
• ACCORD A-07B Black;
• AeroCool CS-1101
|1 500 руб.
|
Блок питания |Примеры:
• Be Quiet System Power 9 600 Вт
|4 000 руб.
|
Итого |AMD — 37 000 руб.
Intel — 38 000 руб.
Если помните, дефицит процессоров Intel начался еще в августе прошлого года — скоро стукнет год, как чипы семейства Core продаются по, скажем так, весьма завышенным ценам. Уже тогда я был вынужден отказаться от использования Core i3-8100 в стартовой сборке и начал рекомендовать «гиперпни», но в прошлом месяце ситуация изменилась. В мае чипы Intel опять подорожали, но вот младший 4-ядерный Coffee Lake эта тенденция почему-то обошла стороной. Хоть какие-то хорошие новости! Противостоит же Core i3-8100 другой 4-ядерник — Ryzen 3 2300X, и наши тесты показывают, что перед вами равнозначные чипы, если речь заходит об игровом ПК.
Ryzen 3 2300X — это настоящая находка для россиян, ведь у нас он имеется в свободной продаже! Вот взяли бы мы в стартовую сборку Ryzen 3 1200 — в кармане вроде осталась 1 000 рублей, но система с таким чипом станет медленнее на 20+ %. Залог успеха Ryzen 3 2300X кроется в использовании всего одного CXX-модуля, а это — огромное преимущество новинок перед четырехъядерными предшественниками с дизайном Summit Ridge. Получается, при пересылке данных или обращениях к кеш-памяти третьего уровня ядра обходятся без задействования шины Infinity Fabric, которая в существующих процессорах с микроархитектурой Zen/Zen+ нередко становится узким местом. При этом процессор совместим с матплатами, которые поддерживают Pinnacle Ridge (Ryzen 3 2200G и Ryzen 5 2400G), — на всякий случай советую обратиться в гарантийный отдел магазина, чтобы вам обновили BIOS материнской платы до последней версии.
Традиционно для стартовой сборки рекомендуются платы на базе чипсета B350, но не A320, ведь первые поддерживают разгон центрального процессора. Да и выбрав плату на A320-чипсете, особо не сэкономишь — в лучшем случае 500-700 рублей, если смотреть в сторону самых дешевых моделей. Мне же модель Gigabyte GA-AB350M-DS3H V2 приглянулась тем, что за 4 500 рублей мы можем взять устройство с четырьмя портами DIMM. В такую плату, как вы сами понимаете, можно установить и два модуля по 4 Гбайт каждый. Естественно, используя память в двухканальном режиме, система будет работать быстрее. В любом случае рекомендую не тянуть с апгрейдом ОЗУ — современному игровому ПК необходимо иметь 16 Гбайт системной памяти.
Одним из минусов Ryzen 3 2300X считаю его реализацию исключительно в виде OEM. Все же у недорогих Ryzen-чипов в комплекте идут хорошие боксовые кулеры. В нашем же случае на него придется дополнительно потратиться. Я долго выбирал модель стоимостью не больше 500 рублей, но все системы охлаждения в этой ценовой категории обладают кучей недостатков. Так что предлагаю взять DeepCool GAMMAXX 200T — этот же кулер рекомендуется в базовой сборке.
В стартовой сборке по-прежнему используется видеокарта Radeon RX 570 с 8 Гбайт набортной памяти. Это лучшее решение — лучшее, несмотря на выход модели GeForce GTX 1650 4 Гбайт. В «Регарде», кстати, они уже продаются по цене от 12 500 до 14 500 рублей. Что интересно, 4-гигабайтную версию Radeon RX 570 можно купить за 11 000 рублей. К сожалению, на нашем сайте пока не вышел обзор GeForce GTX 1650, но даже без практического тестирования после изучения технических характеристик устройства очевидно, что Radeon RX 570 с 8 Гбайт видеопамяти выглядит предпочтительнее.
GeForce GTX 1650 стоит рассматривать только тогда, когда ее стоимость опустится ниже 10 000 рублей, и только в случае, если вы не можете себе позволить Radeon RX 570 8 Гбайт или более быстрый ускоритель.
Про существование GeForce GTX 1050 Ti вообще можно забыть! Странно, что версии этой видеокарты не дешевеют. Кто ж тебя купит за 11 000 рублей?
С таким ПК можно спокойно играть ближайшие пару лет во все современные игры в разрешении Full HD на высоких и максимальных настройках качества графики.
|
Базовая сборка
|
Процессор |AMD Ryzen 5 2600, 6 ядер и 12 потоков, 3,4 (3,9) ГГц, 8+8 Мбайт L3, AM4, OEM
|11 000 руб.
|Intel Core i5-9400F, 6 ядер, 2,9 (4,1) ГГц, 9 Мбайт L3, LGA1151-v2, OEM
|13 000 руб.
|
Материнская плата |AMD B350
|Пример:
• ASRock AB350M Pro4
|5 500 руб.
|Intel B360 Express
|Пример:
• ASRock B360M Pro4
|6 000 руб.
|
Оперативная память |16 Гбайт DDR4-3000 для AMD:
• G.Skill Aegis F4-3000C16D-16GISB
|7 000 руб.
|16 Гбайт DDR4-2666 для Intel:
• Patriot Viper Elite (PVE416G266C6KGY)
|7 000 руб.
|
Видеокарта |NVIDIA GeForce GTX 1660 6 Гбайт
• Gigabyte GV-N1660OC-6GD
|17 500 руб.
|
Накопители |SSD, 240-256 Гбайт, SATA 6 Гбит/с
|Примеры:
• Crucial BX500 (CT240BX500SSD1);
• ADATA Ultimate SU655 (ASU655SS-240GT-C)
|2 500 руб.
|HDD по вашему желанию
|—
|
Процессорный кулер |DeepCool GAMMAXX 200T
|1 000 руб.
|
Корпус |Примеры:
• Cougar MX330;
• AeroCool Cylon Black;
• Thermaltake Versa N26
|3 000 руб.
|
Блок питания |Примеры:
• Be Quiet System Power 9 600 Вт
|4 000 руб.
|
Итого |AMD — 51 500 руб.
Intel — 54 000 руб.
В базовой конфигурации Intel замена: Core i5-8400 покидает сборку, в сокет LGA1151-v2 устанавливается Core i5-9400F. Напомню, в апреле совершилось «триумфальное» возвращение младшего шестиядерного Coffee Lake. Базовая сборка опиралась только на платформу AMD AM4 на протяжении шести месяцев. В апреле Core i5-8400 стоил 13 500 рублей — с большой натяжкой, но этот чип «протиснулся» в обозреваемую конфигурацию. При этом за Core i5-9400F просили на 20 рублей меньше. Как известно, при загрузке всех ядер частота второго чипа оказывается на 100 МГц выше (3,9 ГГц), но буква «F» в названии говорит, что перед нами отбраковка, у чипа отключено видеоядро. Естественно, при одинаковой цене лучше взять «полноценный» ЦП, даже с учетом того, что в сборке мы всегда используем дискретную графику. Лично у меня в жизни бывали случаи, когда встроенное видеоядро оказывалось очень кстати. Однако в мае Core i5-8400 подорожал аж на 2 500 рублей. Core i5-9400F стоит 13 000 рублей — теперь разница в цене оказывается существенной — его и берем. Кстати, на нашем сайте вы можете ознакомиться с подробным обзором Core i5-9400F.
Или берем Ryzen 5 2600 — в мае он стоит меньше Ryzen 5 1600X, хотя обладает более высоким уровнем производительности. Довольно часто читатели предлагают в стартовой, базовой и оптимальной сборках использовать боксовые кулеры. В то же время 6-ядерные процессоры AMD и Intel нельзя назвать холодными — даже Core i5-9400F, который, как выяснилось, является перемаркированной и слегка разогнанной версией Core i5-8400, а потому не имеет припоя под крышкой. Поэтому небольшой кулер башенного типа окажется нелишним, и если вы планируете разогнать AMD Ryzen 5 2600, то можете рассчитывать на стабильные 3,7-3,8 ГГц при небольшом увеличении уровня тепловыделения. Для разгона Ryzen до 3,9-4,1 ГГц необходимо заметно увеличивать напряжение — вплоть до 1,45 В. Поднимать его выше не рекомендует сам производитель — это может привести к деградации процессора.
Собственно говоря, если вы изначально планируете разгонять процессор AMD, то нет смысла брать более дорогую модель в серии. Вместо того же Ryzen 5 2600 можно смело взять Ryzen 5 1600, при этом экономия и составит всего 2 000 рублей с учетом округления. Я уже не раз отмечал, что правило «
*если я буду разгонять процессор, то возьму младший чип в серии с желаемым числом ядер*» актуально для всех моделей: Ryzen 3, Ryzen 5 и Ryzen 7.
Обратите внимание, что в сборке вместе с процессорами Ryzen 2000-й серии применяются платы на B350-чипсете. Даже в мае 2019 года в магазине вам могут продать материнку со старой версией BIOS. В результате устройство попросту не определит новый чип. Обновить версию BIOS можно самостоятельно, вооружившись процессором Ryzen первого поколения, или же попросите это сделать в гарантийном отделе магазина, в котором была куплена плата.
В продаже появились видеокарты GeForce GTX 1660! В «Регарде» их стоимость начинается от 16 500 рублей и заканчивается 20 500 рублями. Наши тесты показывают, что в разрешении Full HD в играх GeForce GTX 1660 опережает на 13 % GeForce GTX 1060 6 Гбайт и на 8 % — Radeon RX 590, но на 17 % отстает от GeForce GTX 1070 и GeForce GTX 1660 Ti. В то же время GeForce GTX 1660 Ti можно купить за 20 500-27 000 рублей. Как всегда, в случае с адаптерами Low- и Middle-сегмента я рекомендую не тратить деньги на навороченные версии и взять что-нибудь попроще. Помните, мы проводили сравнительное тестирование 9 различных модификаций GeForce GTX 1060? Уровень TDP процессора GP106 составляет 120 Вт. Тестирование показало, что даже простенькие кулеры вполне эффективно охлаждают такой чип, а также всю внешнюю обвязку. Уверен, хорошо будут работать и бюджетные версии GeForce GTX 1660 (Ti), ведь TDP процессора TU116 тоже составляет 120 Вт. Стоит ли доплачивать 4 000 рублей (~24 %) за 17 % прироста в играх — решать, конечно же, вам, уважаемые читатели. Я считаю, что в базовую сборку можно установить именно GeForce GTX 1660, а при желании отыграть 10-12 % с помощью разгона.
Если даже такие суммы на покупку видеокарты для вас являются неподъемными, то остается только брать Radeon RX 570 (13 500-14 000 рублей за 8-гигабайтную версию), Radeon RX 580 (14 500-26 000 рублей за 8-гигабайтную версию), Radeon RX 590 (18 000-21 500 рублей) или GeForce GTX 1060 (15 500-24 000 рублей за 6-гигабайтную версию).
Единственным негативным моментом у GeForce GTX 1660 (Ti) считается малый объем видеопамяти. Здесь я согласен с моим коллегой Валерием Косихиным: GeForce GTX 1660 сойдет с дистанции раньше соперников в лице Radeon RX из-за нехватки двух гигабайт VRAM. Однако базовая сборка — это все еще компромиссная система, так что здесь новинка NVIDIA смотрится уместно.
Система, которой по силам в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики в разрешении Full HD и на высоких настройках в разрешении WQHD.
|
Оптимальная сборка
|
Процессор |AMD Ryzen 5 2600X, 6 ядер и 12 потоков, 3,6 (4,2) ГГц, 8+8 Мбайт L3, AM4, OEM
|12 500 руб.
|Intel Core i5-9400F, 6 ядер, 2,9 (4,1) ГГц, 9 Мбайт L3, LGA1151-v2, OEM
|13 000 руб.
|
Материнская плата |AMD 350/450
|Примеры:
• Gigabyte B450 AORUS ELITE
• ASRock B450 Steel Legend
|7 500 руб.
|Intel Z370 Express
|Примеры:
• ASUS PRIME Z370M-PLUS II
|9 000 руб.
|
Оперативная память |16 Гбайт DDR4-3000:
• G.Skill Aegis F4-3000C16D-16GISB
|7 000 руб.
|
Видеокарта |NVIDIA GeForce GTX 1070, 8 Гбайт GDDR5:
• Palit JetStream
AMD Radeon RX Vega 56. 8 Гбайт HBM2:
• ASUS ROG-STRIX-RXVEGA56-O8G-GAMING
NVIDIA GeForce RTX 2060, 6 Гбайт GDDR6:
• Gigabyte GV-N2060OC-6GD V2
|25 500 руб.
|
Накопители |SSD, 240-250 Гбайт, SATA 6 Гбит/с
|Примеры:
• Samsung 860 EVO MZ-76E250;
• Intel SSD 545s
|4 500 руб.
|HDD по вашему желанию
|—
|
Процессорный кулер |Примеры:
• PCcooler GI-X6R
|2 000 руб.
|
Корпус |Примеры:
• Cooler Master MasterBox MB511;
• Cougar Trofeo Black/Silver
|4 500 руб.
|
Блок питания |Примеры:
• Be Quiet Pure Power 11-CM 600 Вт
|6 500 руб.
|
Итого |AMD — 70 000 руб.
Intel — 72 000 руб.
В оптимальной сборке Intel тоже используется Core i5-9400F. Что интересно, модели Core i5-8500 и Core i5-8600 стоят 17 и 20 тысяч рублей — дороговато даже для оптимальной сборки. Смысла приобретать эти чипы по таким ценам нет.
Поступим по-другому: возьмем в дополнение к Core i5 плату на базе чипсета Z370 Express или Z390 Express. Да, у нас процессор, который невозможно разогнать. Однако ускорить его мы сможем при помощи быстрой оперативной памяти. Наши тесты показывают, что связка «Core i5-8400 + DDR4-3200» по уровню производительности не уступает тандему «Core i5-8500 + DDR4-2666». Следовательно, Core i5-9400F тоже станет, скажем так, на ступеньку выше. К тому же такая плата со временем позволит заменить младший 6-ядерник чем-то более интересным и производительным.
В оптимальной сборке AMD используется Ryzen 5 2600X, хотя за те же деньги мы можем взять 8-ядерник — Ryzen 7 1700. Однако такой чип вместе с производительной видеокартой нужно использовать только в разгоне хотя бы до 3,8-3,9 ГГц. Хотя разгоном занимается абсолютное меньшинство пользователей, лично я бы взял именно Ryzen 7 1700. Но рядовому пользователю больше подойдет Ryzen 5 2600X — он уже из коробки «пашет» на пределе своих возможностей и его нет необходимости разгонять, так как в тех же играх его частота (при наличии хорошего кулера) меняется в диапазоне от 4,1 до 4,3 ГГц. Остается только подобрать этому чипу комплект памяти, который будет гарантированно работать на высокой частоте. В большинстве сборок рекомендуется G.Skill Aegis F4-3000C16D-16GISB — это недорогой набор, который разгоняется до 3200 МГц.
А я по-прежнему рекомендую в оптимальной сборке видеокарты уровня GeForce GTX 1070 (Ti) и Radeon RX Vega 56. Эти адаптеры схожи с GeForce RTX 2060 по уровню производительности, но оснащены большим объемом видеопамяти. На длинной дистанции этот момент обязательно скажется не в пользу более современного Turing-адаптера. К тому же трассировка лучей серьезно увеличивает потребление VRAM.
И все же читатели правы: в таблицу добавлена GeForce RTX 2060. Перед вами самый доступный графический ускоритель, дающий возможность опробовать технологию трассировки лучей на практике. В апреле, как известно, NVIDIA выпустила драйвер, активирующий программную трассировку лучей на видеокартах прошлого поколения. Однако наше тестирование показало, что только GeForce GTX 1080 и GeForce GTX 1080 Ti способныхоть как-то обеспечить комфортный FPS в Battlefield V и Shadow of the Tomb Raider с умеренными настройками эффектов DXR. В Metro Exodus с трассировкой лучей «Паскалям» уже делать нечего. А вот остальные видеокарты, которые NVIDIA допустила к гибридному рендерингу наряду с семейством GeForce RTX 20, не оправдали подобной чести — особенно GeForce GTX 1060, которая годится лишь для того, чтобы делать впечатляющие скриншоты. Конечно, можно увеличить быстродействие за счет снижения других параметров детализации, но в таком случае рендеринг теней и отражений с помощью трассировки лучей едва ли компенсирует общее падение качества изображения. Это как к ржавому жигулю прикрутить новенькие хромированные диски.
Системы, которым по силам в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики в разрешении Full HD и на максимальных настройках в разрешении WQHD.
|
Продвинутая сборка
|
Процессор |AMD Ryzen 7 2700X, 8 ядер и 16 потоков, 3,7 (4,3) ГГц, 8+8 Мбайт L3, AM4, OEM
|21 500 руб.
|Intel Core i7-8700, 6 ядер и 12 потоков, 3,2 (4,6) ГГц, 12 Мбайт L3, LGA1151-v2, OEM
|24 000 руб.
|
Материнская плата |AMD B450
|Примеры:
• ASUS ROG STRIX B450-F GAMING
|10 000 руб.
|Intel Z390 Express
|Примеры:
• ASUS TUF Z390-PLUS GAMING;
• Gigabyte Z390 GAMING SLI
|12 000 руб.
|
Оперативная память |16 Гбайт DDR4-3000:
• G.Skill Aegis F4-3000C16D-16GISB
|7 000 руб.
|
Видеокарта | NVIDIA GeForce RTX 2070, 8 Гбайт GDDR6:
• MSI RTX 2070 VENTUS 8G
|38 500 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 480-512 Гбайт, PCI Express
|Пример:
• ADATA XPG SX8200 Pro (ASX8200PNP-512GT-C)
|7 500 руб.
|
Процессорный кулер |Пример:
• Thermalright TRUE Spirit 140 Direct
|3 000 руб.
|
Корпус |Примеры:
• NZXT S340 Black/Blue;
• Cooler Master MasterBox 5;
• DeepCool EARLKASE RGB V2
|5 000 руб.
|
Блок питания |Примеры:
• Be Quiet Pure Power 11-CM 600 Вт
|6 500 руб.
|
Итого |AMD — 99 000 руб.
Intel — 103 500 руб.
Я неоднократно отмечал, что считаю GeForce RTX 2070 лучшей видеокартой на данный момент. Это устройство в среднем оказывается на 10 % быстрее GeForce GTX 1080, но при этом стоит либо столько же, либо даже меньше. GeForce RTX 2070 на аппаратном уровне поддерживает трассировку лучей, так что вы сможете играть в то же Metro Exodus с довольно комфортным FPS как в разрешении Full HD, так и в разрешении WQHD. Наконец, видеокарта оснащена 8 Гбайт памяти.
В общем, при наличии у вас 90-100 тысяч рублей GeForce RTX 2070 должна быть в составе игрового системного блока. Рынок б/у — еще раз напоминаю об этом — в «Компьютере месяца» не рассматривается, здесь мы говорим только о новых комплектующих.
А вот дальше начинается самое интересное. Уверен, многие постоянные читатели рубрики заметили наличие Ryzen 7 2700X в продвинутой сборке. Еще месяц назад здесь «красовался» Ryzen 7 1800X. Однако флагманский 8-ядерник платформы AM4 за прошедшее время серьезно подешевел — его стоимость рухнула с 24 000 до 21 500 рублей. Что интересно, стоимость Ryzen 7 1800X и Ryzen 7 2700 изменилась несильно. Я твердо уверен, что в таких обстоятельствах есть смысл доплатить и сразу же взять Ryzen 7 2700X. Не согласны со мной? Тогда вы знаете, что надо делать (взять любой другой 8-ядерник AMD).
Покупать Ryzen 7 2700X есть смысл тем, кто не собирается ничего разгонять. Так, при 16-поточной нагрузке этот чип работает на частоте 3,95 ГГц — технологии Precision Boost 2 и XFR2 делают свое дело. Самостоятельно же нам удалось разогнать Ryzen 7 2700X всего до 4,1 ГГц. Ситуация доходит до комической: разогнанный до 4,1 ГГц Ryzen 7 2700X уступает в некоторых играх самому себе же в режиме по умолчанию, поскольку технологии Precision Boost 2 и XFR2 интеллектуальны настолько, что, при игровой нагрузке, которая практически никогда не может задействовать все потоки многоядерного процессора, они очень агрессивно повышают частоту отдельных ядер и выводят старшие Pinnacle Ridge на ступень выше того предела, который достижим при ручном синхронном разгоне всех ядер сразу.
Если вы собираетесь разгонять процессор, то лучше взять Ryzen 7 1700 — об этом я уже писал, когда обсуждался выбор чипа для оптимальной сборки. Еще более эффективный способ сэкономить денежные средства — это покупка Ryzen 5 1600 за 9 000 рублей (естественно, с последующим его разгоном до 3,9-4,0 ГГц). Потеря двух ядер, как показывают наши тесты, обязательно скажется на быстродействии системы в играх, но не очень серьезно и далеко не во всех.
Так почему берем 8 ядер, если не наблюдается серьезной разницы в производительности, а в цене она есть? Думаю, ответ в стиле «потому что можем» мало устроит читателей. В рамках бюджета базовой и продвинутой сборок мы можем себе позволить взять 8-ядерный Ryzen — причем такой, чтобы не проводить с ним никаких манипуляций. Действительно, сейчас такое количество «голов» игровому компьютеру ни к чему, но в следующем году, например, выйдет PlayStation 5, и в ней будет использоваться 8-ядерный чип с архитектурой Zen 2. Уже только этот факт свидетельствует о том, что через три-четыре года игры будут задействовать 8 и более ядер, а потому разница между Ryzen 5 и Ryzen 7 со временем станет существенной. Особенно заметной она окажется в момент замены GeForce RTX 2070 моделью с принципиально другим уровнем быстродействия.
Собственно говоря, по этой же причине в продвинутой сборке Intel используется Core i7-8700, а не, скажем, Core i5-9600K, который стоит на 4 000 рублей меньше.
Такие системы способны в большинстве случаев запустить ту или иную игру на максимальных настройках качества графики как в разрешении Full HD, так и в WQHD. В 4K-разрешении GeForce RTX 2080 тянет ААА-проекты на высоких настройках качества графики.
|
Максимальная сборка
|
Процессор |AMD Ryzen 7 2700X, 8 ядер и 16 потоков, 3,7 (4,3) ГГц, 8+8 Мбайт L3, AM4, OEM
|21 500 руб.
|Intel Core i7-8700K, 6 ядер и 12 потоков, 3,7 (4,7) ГГц, 12 Мбайт L3, LGA1151-v2, OEM
|29 500 руб.
|
Материнская плата |AMD X470
|Примеры:
• ASUS PRIME X470-PRO;
• Gigabyte X470 AORUS Gaming 5 WiFi
|13 500 руб.
|Intel Z390 Express
|Примеры:
• MSI MPG Z390 GAMING EDGE AC;
• Gigabyte Z390 AORUS PRO
|14 000 руб.
|
Оперативная память |32 Гбайт DDR4-3000:
• G.Skill Aegis (F4-3000C16D-32GISB)
|13 500 руб.
|
Видеокарта |NVIDIA GeForce RTX 2080 8 Гбайт GDDR6:
• Palit JetStream
|54 000 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 480-512 Гбайт, PCI Express x4 3.0
|Пример:
• Samsung 970 EVO Plus Series (MZ-V7S500BW)
|10 500 руб.
|
Процессорный кулер |Примеры:
• GELID Phantom Black
|4 500 руб.
|
Корпус |Примеры:
• NZXT S340 Black/Blue;
• Cooler Master MasterBox 5;
• DeepCool EARLKASE RGB V2
|5 000 руб.
|
Блок питания |Примеры:
• Be Quiet Pure Power 11-CM 600 Вт
|6 500 руб.
|
Итого |AMD — 129 000 руб.
Intel — 137 500 руб.
В апреле на нашем сайте вышел подробный обзор максимальной сборки, статья называется «Оптимальный игровой ПК за 130-150 тысяч рублей (весна-лето 2019 года)». Как я уже говорил, в июле в продажу поступят первые партии процессоров AMD Ryzen 3000, но жизненный опыт подсказывает, что по более-менее вменяемым ценам «красные» чипы начнут отпускаться нашими розничными магазинами в лучшем случае в августе, а то и в сентябре. Так что сборка, о которой идет речь сейчас, действительно будет актуальной ближайшие четыре месяца, но, возможно, AMD уже летом предложит геймерам что-то более интересное за те же деньги. К сожалению, утечек касательно поколения процессоров Zen 2 сейчас в Сети очень мало.
Собственно говоря, в статье подробно рассмотрены все особенности максимальной сборки. Мы, как всегда, собрали реальные системы и показали, как они могут выглядеть. Мы протестировали максимальную сборку в современных играх и сравнили ее с продвинутой и экстремальной конфигурациями. В общем, если вам необходим системный блок по цене от 130 до 150 тысяч рублей, то стоит ознакомиться с этим материалом.
Отмечу только один негативный момент. В прошлом месяце в рамках максимальной сборки я сделал ставку на процессор Core i7-8700K, так как при цене в 26 500 рублей он был в среднем на 4-5 тысяч дешевле 8-ядерного Core i7-9700K. Сейчас же этот шестиядерник заметно подорожал — в «Регарде» за него просят 29 500 рублей с учетом округления. Core i7-9700K в OEM-комплектации стоит 34 000 рублей. За Core i7-8700 придется отдать 24 000 рублей. Если вы не собираетесь разгонять процессор, а платформа AM4 вас не устраивает, то, на мой взгляд, есть смысл сэкономить 5 500 рублей и взять все же чип без литеры «К» в названии — при загрузке всех шести ядер они все равно работают на одинаковой тактовой частоте, равной 4,3 ГГц.
Система актуальна для современных игр в разрешении Ultra HD с использованием максимальных настроек качества графики.
|
Экстремальная сборка
|
Процессор |Intel Core i9-9900K, 8 ядер и 16 потоков, 3,6 (5,0), 16 Мбайт L3, OEM
|41 500 руб.
|
Материнская плата |Intel Z390
|Примеры:
• MSI MEG Z390 ACE;
• ASRock Z390 Taichi Ultimate
|22 000 руб.
|
Оперативная память |32 Гбайт DDR4-4000:
• G.Skill Trident Z (F4-4000C19D-32GTZKK)
|33 000 руб.
|
Видеокарта |NVIDIA GeForce RTX 2080 Ti, 11 Гбайт GDDR6
|90 000 руб.
|
Накопители |HDD по вашему желанию
|—
|SSD, 1 Тбайт, PCI Express x4 3.0
|Пример:
• Samsung 970 PRO MZ-V7P1T0BW
|25 000 руб.
|
Процессорный кулер |Примеры:
• NZXT Kraken X62
|12 000 руб.
|
Корпус | Пример:
• Be Quiet Silent Base 801 Window Black
|11 500 руб.
|
Блок питания | Пример:
• Enermax Platimax D.F. (EPF1050EWT) 1050 Вт
|12 500 руб.
|
Итого |247 500 руб.
С выходом Core i9-9900K и GeForce RTX 2080 Ti экстремальная сборка ни разу не изменилась — в ней по-прежнему представлена всего одна платформа LGA1151-v2. В том же обзоре максимальной сборки можно убедиться, что для игр в разрешении Ultra HD подойдет любой центральный процессор высокой ценовой категории, так как в таких условиях наибольшая нагрузка ложится именно на видеокарту. Поэтому вместе с GeForce RTX 2080 Ti могут использоваться и Ryzen 7 2700X, и Core i7-8700(K), и Core i7-9700K, если речь идет о массовых платформах. Тем не менее Core i9-9900K — это лучший игровой «камень» на сегодняшний день. Как-то странно не использовать его при наличии неограниченного бюджета. Впрочем, все аспекты выбора комплектующих для экстремальной сборки рассмотрены в этой статье — с наглядными примерами и тестами.
Думаю, все же в скором времени рассматриваемая категория претерпит свои изменения. Конечно же, это будет связано с появлением процессоров Ryzen 3000. Ответ Intel на чипы Zen 2, видимо, состоится еще не скоро.
Все чаще читатели 3DNews предлагают использовать в экстремальной сборке более быструю оперативную память. Под выражением «более быстрая» подразумевается комплект, работающий на эффективной частоте 4000+ МГц. Что ж, мы вполне можем использовать такой набор — это же экстремальная сборка!
Долгое время я рекомендовал память G.Skill Trident Z (F4-3200C14D-32GTZ). Платить 28 500 рублей предлагалось за относительно невысокую частоту, но при этом очень низкие для DDR4-памяти тайминги — 14-14-14-34. При желании этот комплект можно разогнать до 3400 МГц. Модули с эффективной частотой 4000 МГц и выше, как правило, имеют огромнейшие задержки, например 19-19-19-39. Более-менее «сносные» тайминги (17-17-17-37) предлагает 16-гигабайтный набор G.Skill Trident Z RGB (F4-4000C17D-16GTZR) — только две таких позиции стоят в «Регарде» в общей сложности 45 500 рублей.
При этом в играх в 4K-разрешении, когда вся нагрузка ложится на «плечи» GeForce RTX 2080 Ti, вы вряд ли увидите разницу между комплектами ОЗУ, о которых идет речь. А так, пожалуйста, берите тот набор оперативной памяти, который считаете более целесообразным. Например, в экстремальную сборку неплохо впишется кит G.Skill Trident Z (F4-4000C19D-32GTZKK) за 33 000 рублей. Давайте поставим его.
Вот мы и «раздули» стоимость бюджетной сборки еще немного. А можно ли, наоборот, сэкономить без потери производительности в играх? Конечно же, можно! Например, я ставлю в экстрим-систему блок питания явно избыточной мощности — 1 кВт и чуть выше. Такой запас пригодится тем, кто собирается ставить вторую GeForce RTX 2080 Ti со временем. Лично я выступаю против SLI-массивов, но в то же время уверен, что экстремальная сборка должна быть готова к любым «хотелкам» пользователя.
Также вместо 32 Гбайт оперативной памяти можно взять комплект на 16 Гбайт. Мои наблюдения показывают, что такого объема ОЗУ оказывается достаточно даже в играх в 4K-разрешении. Тем более мы имеем дело с видеокартой с 11 Гбайт «мозгов».
Можно сэкономить и на системе охлаждения и взять за 5-7 тысяч рублей суперкулер. Без разгона он легко справится с Core i9-9900K. «Водянки» уровня NZXT Kraken X62, как показывают тесты, справляются с разгоном этого 8-ядерника до 5 ГГц даже в самых сложных условиях.
Плату можно взять уровня Gigabyte Z390 AORUS PRO — особенно если никакого разгона не предвидится. А вот брать под 8-ядерник что-то дешевле не советую. Советы мои основываются на личном опыте — с ним можете ознакомиться здесь.
Наконец, можно сэкономить на корпусе. Какое бы жилище для комплектующих вы ни выбрали, главное, чтобы оно обладало продуманной конструкцией: экстремальная сборка, как вы прекрасно понимаете, подразумевает использование довольно горячих компонентов.
Ниже представлен список полезных статей, которые помогут вам в выборе тех или иных комплектующих, а также при самостоятельной сборке ПК: |
986,834 | Обзор накопителя Gigabyte Aorus RGB M.2 NVMe SSD: размер подсветке не помеха | Сегодняшний обзор любопытен как минимум по двум причинам. Первая – перед нами SSD, выпущенный компаний Gigabyte, которая с накопителями совершенно не ассоциируется. И всё же этот тайваньский производитель материнских плат и графических карт планомерно расширяет спектр предлагаемых устройств, добавляя в ассортимент всё новые и новые виды компьютерного оборудования. Не так давно мы тестировали выпущенные под маркой Gigabyte Aorus блок питания, монитор и оперативную память, а теперь очередь дошла и до твердотельных накопителей.
Впрочем, чтобы быть до конца корректными, необходимо упомянуть, что Gigabyte поставляет SSD под своим брендом уже достаточно продолжительное время. Первые накопители с интерфейсом SATA она представила ещё год назад, но то были не слишком интересные бюджетные модели c достаточно обыденными характеристиками. Сейчас же Gigabyte решила выпустить настоящий SSD для энтузиастов – с современным интерфейсом NVMe 1.3, флагманской производительностью и RGB-подсветкой в фирменном геймерском стиле. Именно поэтому Gigabyte Aorus RGB M.2 NVMe SSD – накопитель, о котором пойдёт речь далее, – и привлёк наше внимание.
Вторая причина, заставившая нас подробно познакомиться с этой новинкой, состоит в том, что она основывается на относительно новой аппаратной платформе, с которой нам ещё не приходилось сталкиваться. В Gigabyte Aorus RGB используется контроллер PS5012-E12 независимой тайваньской компании Phison, разработки которой в последнее время находили место лишь в нижних ценовых сегментах и в быстродействующие накопители не попадали уже очень давно. Но теперь, очевидно, стратегия Phison изменилась, и компания рассчитывает отвоевать определённые позиции в потребительских накопителях более высокого уровня.
На самом деле Phison сфокусировалась на бюджетных платформах SSD совсем не из-за каких-то маркетинговых соображений. Её проблема заключалась в том, что процесс финальной отладки и вывода продуктов на рынок занимал неприлично много времени, и в результате предлагаемые Phison решения зачастую оказывались заведомо устаревшими. Это заставляло фирму бороться за место на рынке исключительно с помощью низких цен, что в результате и приводило к формированию вокруг её платформ имиджа вторичности.
Подобная история грозила повториться и с контроллером PS5012-E12, ведь впервые он был продемонстрирован на выставке CES 2018 полтора года тому назад. Однако на этот раз разработчики успели закончить свой продукт до его морального устаревания. О начале поставок платформы E12 компания Phison объявила в сентябре, а теперь первые реальные продукты на его основе наконец-то добрались до прилавков магазинов.
Появление ещё одного контроллера для потребительских NVMe-накопителей – очень важное и нужное для рынка событие. К сожалению, до сих пор никто так и не смог предложить платформу для NVMe SSD, которая бы позволила создавать накопители класса Samsung 970 EVO Plus. Новые разработки Silicon Motion и Western Digital, как мы могли убедиться, находятся на более низком уровне. И это значит, что южнокорейская компания получила возможность монополизировать сегмент высокопроизводительных NVMe SSD, удерживая на свои флагманские накопители достаточно высокие цены. Именно поэтому мы очень ждём, когда же у Samsung 970 EVO Plus и 970 PRO появятся какие-то реальные альтернативы, способные сделать передовую дисковую производительность доступнее для потребителей.
С одной стороны, характеристики, которые Phison заявляет для своего нового контроллера PS5012-E12, позволяют надеяться, что по мощности он как минимум не хуже, чем Samsung Phoenix. С другой — о желании задействовать эту микросхему в своих продуктах заявили уже по меньшей мере два десятка производителей второго и третьего эшелона. А значит, если всё сложится удачно, то на рынке потребительских NVMe SSD могут произойти серьёзные и приятные для пользователей изменения. Но не будем торопиться, и, прежде чем давать волю радости, давайте проанализируем, насколько в действительности хорош Gigabyte Aorus RGB на базе платформы Phison E12.
Обычно накопители на контроллерах Phison представляют собой типовые изделия, похожие друг на друга по базовым характеристикам вне зависимости от того, какая компания их поставляет на рынок. Собственно, именно так и обстоит дело с Gigabyte Aorus RGB M.2 NVMe SSD – в этом накопителе используется шаблонная программно-аппаратная архитектура с абсолютно типичным набором компонентов. А это значит, что по характеристикам рассматриваемый накопитель аналогичен любому другому SSD на базе контроллера Phison PS5012-E12, например Corsair MP510, Team Group MP34, Silicon Power P34A80 или Patriot VPN100. При этом, возможно, у накопителей разных производителей могут быть какие-то индивидуальные особенности, но обычно они затрагивают исключительно экстерьер.
Что же касается аппаратной конструкции, то в любом из SSD с контроллером Phison PS5012-E12 применяется один и тот же массив флеш-памяти, составленный из 256-гигабитных устройств BiCS3 (64-слойных кристаллов TLC 3D NAND) производства компании Toshiba. Стоит напомнить, что это достаточно удачная флеш-память, которая способна обеспечивать высокие показатели производительности. Например, аналогичный массив флеш-памяти используется в накопителях WD Black SN750, которые можно охарактеризовать как добротные NVMe-решения среднего уровня. Но у Western Digital свой собственный контроллер, а Phison PS5012-E12 – это совершенно иная история.
До настоящего момента Phison успела отметиться двумя базовыми чипами для NVMe SSD. Первый, PS5007-E7, был предназначен для создания накопителей на базе планарной MLC-памяти, однако, несмотря на восьмиканальную архитектуру, был не слишком производительным и использовался в достаточно небольшом числе моделей. Следующий контроллер, PS5008-E8, ориентировался на поддержку TLC 3D NAND и завоевал куда большую популярность, но он представлял собой откровенно бюджетное решение с четырьмя каналами для организации массива флеш-памяти, урезанной шиной PCI Express 3.0 x2 и без LDPC-кодирования.
Phison PS5012-E12 на фоне предшествующих чипов компании – решение совершенно иного рода, разработанное с чистого листа. Здесь всё сделано в соответствии с современными стандартами. Поддерживается шина PCI Express 3.0 x4 с пропускной способностью до 3,94 Гбайт/с и протокол NVMe 1.3. Массив флеш-памяти формируется по производительной восьмиканальной схеме. Поддерживаются не только современные, но и перспективные типы флеш-памяти. Реализована поддержка сильных методов коррекции ошибок на основе LDPC-кодов. В качестве DRAM-буфера можно использовать не только DDR3L-, но и DDR4-память. Наконец, для производства чипов PS5012-E12 применяется 28-нм техпроцесс TSMC, в то время как более ранние микросхемы Phison заказывала у UMC, где они изготавливались по 40-нм нормам.
Свою новую разработку Phison оценивает настолько оптимистично, что не стесняется обещать производительность до 600 тысяч IOPS на глубоко конвейеризованных мелкоблочных операциях. И если это число соответствует действительности, то можно утверждать, что по теоретической мощности PS5012-E12 заметно превосходит SMI SM2262EN и почти дотягивается до уровня Samsung Phoenix. Однако в действительности поверить в такую производительность контроллера PS5012-E12 достаточно тяжело. Дело в том, что он основывается на ARM-процессоре всего лишь с двумя ядрами, в то время как решение Samsung имеет в своей основе пятиядерный дизайн.
И это находит отражение в тех характеристиках продуктов, которые сообщают поставщики конечных решений на базе чипа Phison PS5012-E12. Например, для рассматриваемого накопителя компании Gigabyte заявляются следующие спецификации.
|
Производитель |
Gigabyte
|Серия
|
Aorus RGB M.2 NVMe SSD
|Модельный номер
|GP-ASM2NE2256GTTDR
|GP-ASM2NE2512GTTDR
|Форм-фактор
|M.2 2280
|Интерфейс
|PCI Express 3.0 x4 – NVMe 1.3
|Ёмкость, Гбайт
|256
|512
|
Конфигурация
|Микросхемы памяти: тип, интерфейс, техпроцесс, производитель
|Toshiba 64-слойная 256-Гбит TLC 3D NAND (BiCS3)
|Контроллер
|Phison PS5012-E12
|Буфер: тип, объём
|DDR4-2400,
512 Мбайт
|DDR4-2400,
512 Мбайт
|
Производительность
|Макс. устойчивая скорость последовательного чтения, Мбайт/с
|3100
|3480
|Макс. устойчивая скорость последовательной записи, Мбайт/с
|1050
|2000
|Макс. скорость произвольного чтения (блоки по 4 Кбайт), IOPS
|180 000
|360 000
|Макс. скорость произвольной записи (блоки по 4 Кбайт), IOPS
|240 000
|440 000
|
Физические характеристики
|Потребляемая мощность: бездействие/чтение-запись, Вт
|0,272/5,485
|MTBF (среднее время наработки на отказ), млн ч
|1,8
|Ресурс записи, Тбайт
|380
|800
|Габаритные размеры: Д × В × Г, мм
|22 × 80 × 10
|Масса, г
|28
|Гарантийный срок, лет
|5
Несмотря на то, что Phison расхвалила свою платформу E12 как решение флагманского уровня, формальные характеристики быстродействия Gigabyte Aorus RGB M.2 NVMe SSD заметно слабее показателей не только Samsung 970 EVO Plus, но и таких накопителей, как WD Black SN750 или ADATA XPG SX8200 Pro. И это сразу настраивает далеко не на позитивный лад в отношении новинки.
Не внушает оптимизма и то, как работает у Gigabyte Aorus RGB M.2 NVMe SSD технология SLC-кеширования. Инженеры Phison в своей новой платформе так и не смогли освоить прогрессивные динамические алгоритмы и продолжают опираться на статический SLC-кеш, который у накопителя объёмом 256 Гбайт имеет ёмкость 6 Гбайт, а у 512-гигабайтной версии – 12 Гбайт. Заявленные в спецификации скорости записи по традиции относятся к ускоренному режиму, если же говорить о прямой записи в TLC-память, то её производительность примерно в три с половиной раза ниже. Проиллюстрируем это традиционным графиком скорости непрерывной последовательной записи на пустой Gigabyte Aorus RGB M.2 NVMe SSD ёмкостью 512 Гбайт.
Скорость записи в SLC-кеш достигает 2,0 Гбайт/с, но такая производительность наблюдается очень недолго, на основном же массиве флеш-памяти скорость записи составляет всего порядка 560 Мбайт/с. И это, кстати говоря, заметно ниже того быстродействия, которые выдаёт на абсолютно аналогичном по архитектуре массиве флеш-памяти WD Black SN750. В конечном итоге, чтобы полностью заполнить данными Gigabyte Aorus RGB M.2 NVMe SSD 512 Гбайт, нужно потратить около 15 минут, в то время как флагманский NVMe-накопитель Western Digital можно записать в полтора раза быстрее.
Кроме того, Phison переняла у Silicon Motion идею использования SLC-кеша для «читерства» – увеличения результатов измерения скоростей чтения в бенчмарках. Информация, попавшая в SLC-кеш, задерживаются в нём на некоторое время, чтобы обеспечить лучшую производительность при доступе к файлам, которые были записаны только что. Увидеть это можно с помощью простого эксперимента, в течение которого мы проверяем скорость случайного мелкоблочного чтения данных из файла, созданного на Gigabyte Aorus RGB M.2 NVMe SSD 512 Гбайт, как сразу же после его записи, так и после того, как на этот SSD было записано ещё некоторое количество информации.
Как видно из графика, когда свежий тестовый файл вытесняется из SLC-кеша последующей записью дополнительных 12 Гбайт данных, скорость чтения снижается примерно на четверть. Это значит, что простые бенчмарки, которые измеряют быстродействие при помощи обращений к только что созданному файлу, будут показывать для Gigabyte Aorus RGB M.2 NVMe SSD существенно завышенные показатели по сравнению с той производительностью, которая будет возможна при реальном использовании такого накопителя.
В конечном итоге знакомство с платформой, лежащей в основе Gigabyte Aorus RGB M.2 NVMe SSD, оставляет после себя вполне обоснованные сомнения в том, что этот накопитель правомерно ставить в один ряд с флагманскими NVMe SSD. Впрочем, это заведомо и не бюджетный вариант, поскольку конфигурация таких накопителей не предполагает никакой явной экономии в дизайне. Более того, если говорить конкретно о накопителе Gigabyte, то он продаётся существенно дороже альтернатив на базе контроллера SMI SM2262EN, производительность которых можно отнести к среднему уровню.
К тому же для Gigabyte Aorus RGB M.2 NVMe SSD заявляются достаточно неплохие гарантийные условия. Срок действия гарантии составляет пять лет, и за это время накопитель разрешается перезаписать примерно 1500 раз. Это даже более высокий разрешённый ресурс, чем у флагманских накопителей производителей первого эшелона.
В завершение рассказа о технических характеристиках остаётся отметить странную деталь. Модельный ряд Gigabyte Aorus RGB M.2 NVMe SSD состоит лишь из двух модификаций – 256 и 512 Гбайт. Отсутствие варианта на 1 Тбайт выглядит очень подозрительно: такая ёмкость не только востребована у покупателей, но и могла бы позволить получить более высокую производительность за счёт увеличения степени параллелизма массива флеш-памяти. Очевидно, что причина её отсутствия кроется не в каких-то особенностях платформы Phison E12, поскольку другие производители предлагают терабайтные и даже двухтерабайтные накопители на её основе.
⇡#Внешний вид и внутреннее устройство
Для тестирования Aorus RGB M.2 NVMe SSD компания Gigabyte предоставила старшую и более производительную модификацию с ёмкостью 512 Гбайт. Накопитель оказался выполнен в стандартном типоразмере M.2 2280, однако его внешний вид вряд ли можно назвать обыденным.
Разработчики Gigabyte проявили недюжинную фантазию и оснастили свой продукт массивным радиатором с RGB-подсветкой в фирменном стиле. За счёт этого Aorus RGB M.2 NVMe SSD не только заметно отличается от любой другой модели на базе платформы Phison E12, но и является одним из самых оригинальных NVMe SSD на рынке, по крайней мере если говорить об экстерьере.
Радиатор, установленный на Gigabyte Aorus RGB M.2 NVMe SSD, кажется весьма эффективным решением. Это не обычная в таких случаях тонкая алюминиевая пластина, а достаточно массивный брусок с двумя пропиленными вдоль краёв пазами.
Однако в реальности отводит тепло от накопителя он весьма посредственно, поскольку разработчики Gigabyte не позаботились о его плотном прилегании к охлаждаемым компонентам. Из-за того, что высота микросхемы контроллера меньше, чем высота микросхем флеш-памяти, базовая микросхема SSD этим радиатором практически не охлаждается. Кроме того, без теплоотвода вынуждена обходиться и память, размещённая на оборотной стороне M.2-модуля. Иными словами, вся система охлаждения – это скорее декорация.
Впрочем, декорация получилась достаточно эффектной: по центру радиатора красуется фирменный логотип Aorus – голова орла – с RGB-светодиодной подсветкой. При работе логотип циклически пульсирует разными цветами. Строго говоря, работу этой подсветки можно настраивать через фирменную утилиту RGB Fusion 2.0, но данная функция доступна лишь для избранных моделей материнских плат Gigabyte. В списке совместимости значатся только платы Aorus на базе чипсета Intel Z390 и плата X299 Aorus Master. На любых других материнских платах алгоритмом подсветки управлять не выйдет.
Обычно все накопители, построенные на платформах Phison, используют один и тот же дизайн печатной платы, предоставленный авторами контроллера. Однако Gigabyte Aorus RGB M.2 NVMe SSD получил слегка видоизменённую печатную плату. На плате добавлено два отверстия для винтового крепления радиатора и три RGB-светодиода, которые подсвечивают логотип Aorus. Но в остальном компоновка печатной платы соответствует эталонной.
На печатной плате рассматриваемого накопителя располагается восьмиканальный контроллер Phison PS5012-E12 с сопутствующей ему 512-мегабайтной микросхемой DDR4-2400 SDRAM производства Hynix, необходимой для хранения рабочей копии таблицы трансляции адресов. Массив же флеш-памяти сформирован из четырёх микросхем с маркировкой TA7AG55AIV, которые расположены как на лицевой стороне платы, так и на обратной. Такие микросхемы по заказу Phison изготавливает компания PTI, которая закупает для них полупроводниковую начинку непосредственно у Toshiba. В конечном итоге в каждой микросхеме флеш-памяти, размещённой на Gigabyte Aorus RGB M.2 NVMe SSD, находится по четыре 256-гигабитных кристалла Toshiba TLC 3D NAND с 64 слоями, но разделкой и сортировкой этих кристаллов из полупроводниковых пластин ведает тайваньский посредник.
При этом, похоже, в накопителе Gigabyte должны использоваться полупроводниковые кристаллы сравнительно неплохого качества. Такой вывод можно сделать из высокого заявленного ресурса SSD при небольшом объёме резервного пространства. После форматирования владельцу 512-гигабайтного накопителя будет доступно примерно 476 Гбайт пространства, ещё 36 Гбайт занимает SLC-кеш, а значит, на подменный фонд остаётся всего ничего.
На сегодняшний день практически все производители твердотельных накопителей предлагают сервисные утилиты, позволяющие контролировать состояние и управлять работой собственных SSD. У Gigabyte эта роль отведена утилите SSD Tool Box, однако с точки зрения функциональности её следует отнести к числу худших образцов подобных программ: она не умеет практически ничего.
Единственное, что можно сделать с помощью этой утилиты, — это посмотреть общую информацию о SSD, получить доступ к его S.M.A.R.T.-телеметрии и выполнить команду Secure Erase. В интерфейсе также предусмотрена вкладка Optimization, но для выбора она недоступна.
Тестирование проводится в операционной системе Microsoft Windows 10 Enterprise x64 Build 16299, корректно распознающей и обслуживающей современные твердотельные накопители. Это значит, что в процессе прохождения тестов, как и при обычном повседневном использовании SSD, команда TRIM поддерживается и активно задействуется. Измерение производительности выполняется с накопителями, находящимися в «использованном» состоянии, которое достигается их предварительным заполнением данными. Перед каждым тестом накопители очищаются и обслуживаются с помощью команды TRIM. Между отдельными тестами выдерживается 15-минутная пауза, отведённая для корректной отработки технологии сборки мусора. Во всех тестах используются рандомизированные несжимаемые данные.
Раздел, в пределах которого тестируется скорость операций, имеет размер 32 Гбайт, а продолжительность каждого теста составляет сорок секунд. Такие параметры, в частности, позволят получать более релевантные результаты для тех SSD, которые используют различные технологии SLC-кеширования.
Используемые приложения и тесты:
С выходом процессоров Coffee Lake Refresh мы решили в очередной раз обновить тестовую систему, которая используется для измерения производительности NVMe-моделей SSD. Всё-таки такие накопители в первую очередь покупают энтузиасты, переходящие на новые платформы, и поэтому логично использовать в тестовых испытаниях новейшую платформу.
В итоге в качестве тестовой платформы используется компьютер с материнской платой ASRock Z390 Taichi, процессором Core i7-9700K со встроенным графическим ядром Intel UHD Graphics 630 и 8 Гбайт DDR4-2666 SDRAM. Накопители с интерфейсом M.2 во время тестирования устанавливаются в соответствующий слот материнской платы, подключёspaнный к чипсету. Накопители в виде карт PCI Express устанавливаются в слот PCI Express 3.0 x4, также работающий через чипсет.
Объём и скорость передачи данных в бенчмарках указываются в бинарных единицах (1 Кбайт = 1024 байт).
Отдельное пояснение следует сделать относительно закрытия процессорных уязвимостей Meltdown и Spectre. Существующие патчи заметно снижают производительность твердотельных накопителей, поэтому измерения проводятся с деактивированными «заплатками» OC, которые должны бы закрывать эти уязвимости.
⇡#Список участников тестирования
Платформа Phison E12 используется в составе флагманского накопителя не только у Gigabyte, но и у многих других производителей третьего эшелона. Поэтому Gigabyte Aorus RGB M.2 NVMe SSD мы решили сравнить с наиболее распространёнными NVMe SSD, представленными в настоящее время на рынке. Иными словами, в тестовом сравнении вы найдёте как передовые решения компании Samsung, так и накопители Intel, Western Digital и ADATA. Кроме того, в тесты включён и накопитель Kingston A1000, который можно считать «идеологическим предтечей» Gigabyte Aorus RGB M.2 NVMe SSD, потому что он основывается на прошлом контроллере Phison, PS5008-E8.
В результате список протестированных моделей получил следующий вид:
Используемые версии NVMe-драйверов:
⇡#Производительность последовательного чтения и записи
По первым же результатам становится понятно, что Phison E12 – далеко не флагманская платформа. И по скорости линейного чтения, и по линейной записи основанный на этом контроллере Gigabyte Aorus RGB M.2 NVMe SSD оказывается заметно медленнее всех накопителей, которые мы привыкли относить к среднему уровню. Особенно ярко слабость новой платформы Phison проявляется при чтении, где в случае небольшой глубины очереди запросов решение Gigabyte отстаёт от обычно рекомендуемых нами моделей в два – два с половиной раза.
⇡#Производительность произвольного чтения
Не радуют и скорости, демонстрируемые Gigabyte Aorus RGB M.2 NVMe SSD при операциях произвольного чтения. Здесь этот накопитель оказывается ближе к Kingston A1000, чем к современным производительным моделям Samsung, ADATA или Western Digital. Несмотря на то, что контроллер Phison PS5012-E12 имеет признаки мощного решения, располагает восемью каналами, использует DRAM-буфер и общается с системой по шине PCI Express 3.0 x4, на деле работает он гораздо хуже контроллеров других разработчиков с похожими характеристиками.
⇡#Производительность произвольной записи
Никакими принципиально лучшими результатами Gigabyte Aorus RGB M.2 NVMe SSD не может похвастать и в случае измерений скоростей произвольной записи. Здесь это во многом связано со слабыми статическими алгоритмами SLC-кеширования. Gigabyte, конечно же, в этом напрямую не виновата, но выбор в пользу контроллера Phison она, по-видимому, сделала напрасно. Всё выглядит так, как будто вся платформа Phison E12 вновь опоздала на рынок. Эволюция контроллеров NVMe SSD ушла вперёд, и сегодняшние решения Samsung, Western Digital и даже Silicon Motion предлагают более совершенные алгоритмы и, как следствие, лучшую производительность.
⇡#Производительность при смешанной нагрузке
Любые синтетические тесты становятся убедительным аргументом в пользу тезиса о том, что накопители на базе платформы Phison E12 должны продаваться дёшево. Результаты при смешанной нагрузке – тому лишнее доказательство. Достойным выбором такие SSD могут стать только при условии выступления в бюджетном сегменте — вместе с накопителями, лишёнными DRAM-буфера, например с ADATA XPG SX6000 Pro. В качестве же решения среднего уровня рассматриваемый сегодня Gigabyte Aorus RGB M.2 NVMe SSD, похоже, не имеет практически никаких шансов.
⇡#Производительность в CrystalDiskMark
Простой синтетический бенчмарк CrystalDiskMark, который не обладает никакими средствами защиты против «читов» разработчиков контроллеров, мы используем для того, чтобы сопоставить Gigabyte Aorus RGB M.2 NVMe SSD c ADATA XPG SX8200 Pro. Оба эти накопителя используют примерно одинаковые подходы для улучшения показателей тестов, и поэтому в данном случае они находятся в равном положении. Фактически для того и для другого SSD на скриншотах ниже приводятся скорости при работе с SLC-кешем.
Здесь накопители на контроллерах Phison PS5012-E12 и SMI SM2262EN показывают в среднем близкие результаты. Gigabyte Aorus RGB M.2 NVMe SSD выигрывает при мелкоблочных операциях с глубокими очередями запросов, но ADATA XPG SX8200 Pro берёт реванш в случае неконвейеризуемого мелкоблочного чтения. Впрочем, напоминаем ещё раз, что данные показатели имеют отдалённое отношение к производительности SSD в реальных задачах.
⇡#Производительность в PCMark 8 Storage Benchmark 2.0
В PCMark 8 накопитель компании Gigabyte выдаёт неожиданно высокий результат, ставящий его на одну ступень с Samsung 970 EVO Plus и ADATA XPG SX8200 Pro. Однако не стоит думать, что это является свидетельством хорошей производительности Gigabyte Aorus RGB M.2 NVMe SSD при работе в реальных приложениях. Во многом такой результат данной модели обусловлен оптимизациями SLC-кеширования, направленными на успешное прохождение бенчмарков. Нагрузки, в которых предполагаются интенсивные разнонаправленные операции с небольшим объёмом свежезаписанных данных, SSD на контроллерах Phison PS5012-E12 и SMI SM2262EN действительно способны исполнять с большей скоростью, чем какие-то иные сценарии.
Интегральный результат PCMark 8 нужно дополнить и показателями производительности, выдаваемыми накопителями при прохождении отдельных тестовых трасс, которые моделируют различные варианты реальной нагрузки. Дело в том, что при разноплановой нагрузке флеш-накопители могут вести себя каким-либо особым образом.
Производительность при реальной нагрузке
При операциях с файлами Gigabyte Aorus RGB M.2 NVMe SSD показывает не слишком высокую скорость. Однако если говорить о ситуации в среднем, то он не только быстрее бюджетных безбуферных моделей NVMe SSD, но и лучше, чем, например, Intel SSD 760p. Впрочем, до флагманских новинок Samsung, Western Digital и ADATA, представленных в этом году, он всё-таки заметно не дотягивает.
Для роли системного накопителя, с которого предполагается запускать операционную систему и программы, новинка Gigabyte подходит хуже всех участвующих в тесте альтернатив, за исключением разве только самого медленного NVMe SSD всех времён и народов, Kingston A1000. Даже бюджетный и безбуферный ADATA XPG SX6000 Pro способен предложить лучшие скоростные показатели в таких сценариях. И этот результат ставит под вопрос перспективы Gigabyte Aorus RGB M.2 NVMe SSD, ведь производитель явно позиционирует его как первичный накопитель в системе, иначе бы в модельный ряд наверняка были включены варианты с ёмкостью свыше 512 Гбайт.
⇡#Деградация и восстановление производительности
Наблюдение за изменением скорости записи в зависимости от объёма записанной на диск информации — важный эксперимент, позволяющий понять работу внутренних алгоритмов накопителя. В данном тесте мы загружаем SSD непрерывным потоком запросов на случайную запись 4-килобайтных блоков с очередью максимальной глубины и попутно следим за той производительностью, которая при этом наблюдается. На приведённом ниже графике в виде точек отмечены результаты измерений моментальной производительности, которые мы снимаем ежесекундно, а чёрная линия показывает среднюю скорость, наблюдаемую в течение 30-секундного интервала.
Разброс показателей моментальной скорости при записи у Gigabyte Aorus RGB M.2 NVMe SSD достаточно велик, что свидетельствует о слабом потенциале производительности, заложенном в Phison PS5012-E12. Двух ядер этого контроллера, очевидно, не хватает для «гладкой» обработки непрерывного потока запросов, из-за чего моментальная производительность при обслуживании следующих друг за другом операций может различаться чуть ли не вдвое. Иными словами, платформу Phison E12 стоит рассматривать исключительно как потребительское решение, плохо приспособленное к высоким нагрузкам.
Посмотрим теперь, как происходит восстановление скоростных характеристик до первоначальных величин за счёт работы технологии сборки мусора. Для исследования этого вопроса после завершения предыдущего теста, приводящего к снижению скорости записи, мы выжидаем 15 минут, в течение которых SSD может попытаться самостоятельно восстановиться за счёт сборки мусора, но без помощи со стороны операционной системы и команды TRIM, и замеряем быстродействие. Затем на накопитель принудительно подаётся команда TRIM — и скорость измеряется ещё раз, что позволяет убедиться в способности SSD с помощью TRIM полностью восстанавливать свою паспортную производительность.
С обслуживанием TRIM у Gigabyte Aorus RGB M.2 NVMe SSD проблем нет: после подачи этой команды контроллер корректно высвобождает выведенные из обращения страницы флеш-памяти. Самостоятельно же, без указаний со стороны операционной системы, неиспользуемая флеш-память не освобождается. Хотя какие-то попытки оптимизировать производительность под предстоящие операции во время простоя контроллер всё же предпринимает. Но их успешность, если судить по графику, пока можно поставить под вопрос. В то же время мы не удивимся, если в будущих прошивках автономная сборка мусора у рассматриваемого накопителя Gigabyte всё-таки начнёт функционировать.
Давайте теперь обратим внимание на то, насколько большую нагрузку на контроллер создаёт обработка команды TRIM. Когда операционная система передаёт накопителю информацию о том, что какие-то сектора выводятся файловой системой из обращения, контроллер SSD должен консолидировать эти сектора и очистить освобождающиеся страницы флеш-памяти для выполнения будущих операций. Такая перегруппировка требует перезаписи и очистки областей памяти, и это не только занимает заметное время, но и серьёзно нагружает контроллер работой. В результате после удаления с диска больших объёмов данных владельцы SSD могут столкнуться с эффектом временного замедления или даже с «фризами» накопителя. На практике это может вызвать серьёзный дискомфорт, ведь никто не ожидает, что SSD, основным достоинством которого является моментальная реакция на внешние воздействия, будет замирать на несколько секунд.
Поэтому мы добавили в методику дополнительное исследование, которое позволяет отслеживать, насколько незаметно для пользователя тот или иной SSD обслуживает команды TRIM. Способ проверки очень прост: сразу после удаления крупного файла — объёмом 32 Гбайт — мы проверяем, как накопитель справляется с операциями произвольного чтения данных, контролируя как скорость чтения, так и время ожидания, которое проходит с момента каждого запроса данных до ответа накопителя.
Удаление больших объёмов информации почти не вызывает у Gigabyte Aorus RGB M.2 NVMe SSD никаких негативных последствий: накопитель практически не страдает от падения производительности или увеличения времени отклика. И в этом платформа Phison E12 уникальна. Подавляющее большинство современных NVMe SSD отвечают на удаление файлов и TRIM временным замедлением.
⇡#Проверка температурного режима
Выпущенный по 28-нм технологии чип Phison PS5012-E12, по идее, не должен сильно нагреваться. Однако проверить температурный режим Gigabyte Aorus RGB M.2 NVMe SSD всё-таки необходимо. Несмотря на то, что на этом накопителе установлен массивный радиатор, который мог бы решить все проблемы с перегревом, его эффективность вызывает серьёзные сомнения из-за неплотного прилегания к микросхеме контроллера.
Мы последили за температурным режимом при работе накопителя с последовательными операциями с глубиной очереди запросов в 32 команды. Измерения проводились на открытом стенде, какой-либо дополнительный обдув SSD воздушным потоком не производился.
Для контроллера Phison PS5012-E12 допустимой считается температура до 70 градусов, и, как следует из графиков, Gigabyte Aorus RGB M.2 NVMe SSD к ней не подходит даже близко. Иными словами, перегрев этому накопителю не грозит. И очевидно, что невысокий нагрев будет свойственен всем накопителям на том же контроллере, поскольку он имеет не слишком высокую производительность, но выпускается с применением относительно современного техпроцесса.
Через нашу лабораторию прошло огромное количество различных твердотельных накопителей, но Gigabyte Aorus RGB M.2 NVMe SSD смог удивить тем, чем до сих пор не удивлял ни один из протестированных SSD. В нём на первый план выдвинуты совершенно неожиданные акценты: этот накопитель имеет отчётливую ориентацию на тех редких приверженцев игровой продукции Gigabyte, для которых целостный и эффектный внешний вид их систем гораздо важнее всего остального. У нового флагманского накопителя Gigabyte есть два очевидных достоинства: светодиодная RGB-подсветка в стиле Aorus и солидно выглядящий радиатор. Все же остальные качества при этом явно вторичны.
В число свойств Gigabyte Aorus RGB M.2 NVMe SSD, о которых лучше не задумываться, попала и производительность. К сожалению, несмотря на ориентацию этого накопителя на аудиторию геймеров-энтузиастов, для него выбрана одна из самых неудачных аппаратных платформ сегодняшнего дня. Как показали тесты, Phison PS5012-E12 – достаточно слабый по современным меркам контроллер, который, несмотря на многообещающие характеристики, в реальности выдаёт быстродействие на уровне дешёвых безбуферных решений. В результате Gigabyte Aorus RGB M.2 NVMe SSD не только не может соперничать с признанными лидерами рынка NVMe SSD, но и даже не дотягивает до средних по производительности накопителей образца 2019 года.
С учётом сказанного, из Gigabyte Aorus RGB M.2 NVMe SSD мог бы получиться отличный бюджетный NVMe SSD, особенно если вспомнить о том, насколько твёрдо производитель уверен в надёжности и высоком ресурсе своего предложения. Однако из имиджевых соображений Gigabyte не захотела отправлять свою новинку в соответствующий её быстродействию сегмент и серьёзно переоценила Aorus RGB M.2 NVMe SSD, назначив его стоимость заметно выше, чем у основанных на контроллерах SMI SM2262/SM2262EN накопителей вроде ADATA XPG SX8200 Pro. И с таким позиционированием покупателей у неё, очевидно, окажется очень немного.
В заключение необходимо пояснить, что другие накопители на базе контроллера Phison PS5012-E12 на российском рынке пока в широкой продаже отсутствуют. Однако если судить по тому, какую цену имеют такие модели на рынке американском, то можно ожидать, что они будут сильно отличаться от Gigabyte Aorus RGB M.2 NVMe SSD по позиционированию. Весьма вероятно, что они даже окажутся самыми дешёвыми вариантами с полноценным DRAM-буфером и восьмиканальным массивом флеш-памяти, составленным из качественных устройств TLC 3D NAND. И вот при таком подходе решения на новой платформе Phison E12 действительно могут представлять немалый интерес. Осталось лишь дождаться, когда Team Group MP34, Silicon Power P34A80 или Patriot VPN100 доберутся до прилавков отечественных магазинов. |
986,862 | World War Z — они лезут по стенам! Рецензия | |
Жанр |Экшен
|
Издатель |Focus Home Interactive
|
Разработчик |Saber Interactive
|
Минимальные требования |Процессор Intel Core i5-750 2,66 ГГц/AMD Phenom II X4 810 2,6 ГГц, 8 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 1 или 2 Гбайт памяти, например NVIDIA GeForce GT 730/AMD Radeon R7 240, 20 Гбайт на жестком диске, интернет-соединение и учетная запись в Epic Games Store
|
Рекомендуемые требования |Процессор Intel Core i7-3970X 3,5 ГГц/AMD Ryzen 5 2600 3,4 ГГц, 16 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 2 или 3 Гбайт памяти, например NVIDIA GeForce GTX 960/AMD Radeon R9 280
|
Дата выхода |16 апреля 2019 года
|
Возрастной ценз |от 18 лет
|
Платформы |PC, PlayStation 4, Xbox One
|
Официальный сайт *Игра протестирована на PlayStation 4*
Совсем недавно на PS4 вышел экшен Days Gone, одна из главных особенностей которого —возможность столкнуться с огромной ордой зараженных. Из-за размеров открытого мира и по той причине, что орды периодически кочуют из одной локации в другую, встретить их удается далеко не всегда. Зато если натыкаешься на одну из них, начинается настоящее веселье со стрельбой по взрывающимся бочкам, беготней, закидыванием гранатами и попытками выжить. А вот в World War Z искать эти орды не приходится — они здесь всюду, но вам хотя бы не приходится мучиться с ними в одиночку.
Новый кооперативный боевик от студии Saber Interactive сильно напоминает Left 4 Dead (только с видом от третьего лица) и прочие кооперативные развлечения, в которых ваш отряд сражается с массой монстров или зомби. Проект создан совместно с киностудией Paramount Pictures, а потому он не только напоминает по духу книгу «Мировая война Z», но и смахивает на фильм «Война миров Z», пусть игру и не назовешь адаптацией какого-то из этих произведений. Это несколько отрывков из жизни шестнадцати человек, пытающихся остаться в живых (и спасти кого-то по пути) во время зомби-апокалипсиса.
Как это обычно бывает в кооперативных экшенах с четким делением на уровни, рассказать внятную историю авторам не удается. Всего здесь четыре главы, действие которых разворачивается в Нью-Йорке, Иерусалиме, Москве и Токио, и все они поделены на три или четыре миссии с коротенькими роликами в начале и конце. Очевидно, времени на раскрытие героев отведено катастрофически мало, да и сказать они ничего толком не успевают, поэтому интересных драматических эпизодов от World War Z ждать не стоит — сюжет тут имеет такую же ценность, как в Strange Brigade.
Повествованию уделили мало внимания, но хотя бы попытались сделать интересными персонажей. У всех в меню есть небольшая биография, а при прохождении как минимум одного уровня за кого-то из них открывается видеоролик, рассказывающий предысторию того или иного выжившего. Пожарный с посттравматическим стрессовым расстройством, опытный адвокат, работник береговой охраны, лыжница, попавшая в олимпийскую сборную по биатлону, — кого тут только нет. Это не сильно влияет на восприятие никакого сюжета, но все же чуточку оживляет созданную разработчиками вселенную.
В этом вся World War Z — невероятно банальная, однообразная и похожая на жанровых предшественниц игра, но кое-какие моменты спасают ее от полного забвения. Она не способна чем-то удивить, в ней всего одна уникальная идея (об этом ниже), а все, что происходит в промежутках между перестрелками с ордами, вызывает тоску. Вас просят собирать какие-то чемоданы на разных этажах, дергать рычаги, открывать двери, искать данные — вроде бы это сделано для того, чтобы развеселить игроков и разбавить расстрел шевелящейся массы живых мертвецов, но на деле такие бессмысленные поручения лишь раздражают.
Зато уничтожать толпы зомби поначалу весело. Когда обороняешь какой-то ценный объект или защищаешь беспомощного ученого, игра подсказывает, с какой стороны стоит ожидать следующую волну. Зомби агрессивные и не боятся никаких препятствий: они перелезают через ограды, ломают деревяшки, которыми кто-то заколотил окна, обходят с разных сторон и не раз попытаются зажать вас в угол. Самая интересная их особенность — способность карабкаться по стенам, залезая друг другу на головы. Выглядит так же здорово, как в трейлерах! Очень весело рушить их планы, бросая в эту «акробатическую труппу» гранату.
В начале прохождения у игрока есть основное оружие и пистолет, а также аптечка и одна граната. Почти сразу основную пушку можно заменить каким-нибудь дробовиком, автоматом или винтовкой, если отыскать их в ящиках, которые есть в каждой второй комнате. Чем чаще вы пользуетесь тем или иным оружием и чем больше зомби с его помощью убиваете, тем скорее растет его уровень, а это открывает доступ к модифицированной версии пушки — с крутым прицелом, удобной рукояткой или увеличенной обоймой. Все это настраивается в арсенале, и после пары десятков забегов вы уже в начале прохождения сможете находить мощные образцы, если выберете все нужные модификации.
Прокачиваются и классы, которых в World War Z шесть. Их названия говорят сами за себя: стрелок подойдет любителям брать в руки автомат и зажимать курок, у медика есть излечивающий пистолет-стимулятор, палач носит с собой шокер и может поражать две цели одним ударом. С получением очередного уровня становятся доступны новые навыки — тот же стрелок, к примеру, может начинать прохождение миссии с определенным оружием в инвентаре, а истребитель получает бонусы к здоровью и другим характеристикам, если за короткий срок уничтожит полтора десятка противников.
Поскольку ви дов оружия тут много, да и перков у классов немало, процесс может показаться весьма утомительным. Однако на деле прокачка слишком уж много времени не занимает, особенно если вы постепенно увеличиваете сложность, а не сразу запрыгиваете в наиболее трудные задания. Всего здесь пять уровней сложности — на легком пройти игру получится даже с ботами, которые хоть и туповаты, но все же могут хоть чем-то помочь. А вот дальше без человеческой компании не обойтись. К счастью, World War Z за первую неделю продалась миллионным тиражом , поэтому найти случайных попутчиков не составляет труда. Удобно, что подключаться к миссии можно даже прямо в процессе.
Главная проблема экшена заключается в том, что после первых нескольких уровней он уже ничем не может удивить. Игровой процесс остается примерно тем же, разве что новые типы зомби появятся. Но и они банальны донельзя: есть кричащий зомби, призывающий товарищей, есть бронированный бегун, есть токсичный оживший мертвец, оставляющий после смерти облако ядовитого газа. Где-то мы все это уже видели… Да везде! На дворе 2019 год, а новых идей у разработчиков до сих пор не появилось — сражаемся все с теми же противниками. Забавно и то, что эти особенные зомби везде одеты одинаково: что в Москве, что в Токио. С одной стороны, не запутаешься, а с другой — еще один камень в огород ничем не удивляющих уровней.
Но сами сражения, повторюсь, и выглядят, и играются здорово. Иногда вам просто нужно сражаться с небольшой толпой — тогда вы берете в руки оружие и стреляете по головам и конечностям, наблюдая за тем, как они отрываются от гниющей плоти. А иногда вашей команде дают полторы минуты на подготовку к появлению орды. Тут можно расставить турели, пополнить запас гранат, задействовать особое оружие вроде ракетниц и пулеметов — но у этих «козырных карт» сильно ограничен боезапас, а пополнить его не позволяют. И когда видишь бегущую толпу, которой, кажется, нет конца, и вы вместе начинаете по ней стрелять, тут World War Z играет своими красками.
Еще есть пачка PvP-режимов: «Захват точек», «Царь горы», схватка двух команд в бою насмерть, сбор припасов и некое подобие «Захвата флага», только с вакциной. Они могут ненадолго увлечь, но не совсем понятно, зачем на это вообще стали тратить время и ресурсы. PvP в такой игре не станет популярным, все-таки ее покупаютне ради него, да и «размазывать» все сообщество на такое большое количество режимов — не самое разумное решение. Полутора десятков миссий с пятью уровнями сложности для каждой уже достаточно, чтобы через пару недель или месяцев начали возникать проблемы с подбором соратников, а если часть пользователей будет сидеть в PvP, то ситуация станет еще хуже.
*******
World War Z — иногда веселый, иногда унылый, иногда захватывающий, иногда однообразный боевик. Он просто и без затей метит в нишу кооперативных экшенов, которую уже давно покинула Left 4 Dead, а сейчас в ней обретаются Warhammer: Vermintide, Strange Brigade и другие проекты. Кому-то из них удалось надолго завоевать внимание, другие быстро забылись. Пока трудно сказать, какая судьба ожидает World War Z, но нет никаких оснований полагать, что проект надолго задержится на жестких дисках покупателей.
**Достоинства:** **Недостатки:**
|
|
Нельзя назвать World War Z очень красивой игрой, но для своего скромного бюджета она выглядит достойно. Когда где-то вдалеке видишь толпу бегущих зомби, порой даже становится жутко. Жаль, трупы быстро исчезают.
|
|
Хвалить звуковую составляющую вроде бы не за что, но музыка нормальная, герои озвучены сносно. Ничего особенного, но какой-то уровень есть.
|
|
Все миссии можно проходить с ботами, но на что-то, кроме низкого уровня сложности, рассчитывать с ними не приходится. Хотя даже в этом случае они могут заниматься ерундой, а не помогать.
|
|
Лучше всего играть с друзьями — случайные игроки, конечно, редко будут мешать и раздражать, но свои люди делают любой кооператив веселее, а закрыть глаза на некоторые недостатки становится проще.
|
|
Нормальный кооперативный экшен — скрасит несколько вечеров, но вряд ли вы останетесь тут надолго.
*Оценка: 6,0/10*
**Видео:** |
986,983 | Групповое тестирование 36 видеокарт в Apex Legends | После непрекращающихся тестов видеокарт с трассировкой лучей в реальном времени, которые, казалось бы, лишили все GPU предыдущего поколения шансов на счастливую старость, приятно вспомнить, что существуют популярные игры с весьма демократичными системными требованиями. Проекты, целиком сосредоточенные на сетевых баталиях, ставят во главу угла игровую механику и зачастую выгодно отличаются от однопользовательских блокбастеров скромными запросами к производительности железа. В случае Apex Legends это абсолютно предсказуемо, ведь игра построена на стародавнем графическом движке Source, который использовался еще в Half-Life 2. Впрочем, команда Respawn Entertainment изрядно переработала кодовую базу Source. В результате, несмотря на столь глубокие корни, Apex Legends презентабельно выглядит и, соответственно, может найти работу даже для самых высокопроизводительных графических карт.
В Apex Legends нет удобной возможности выбрать один из предварительно сконфигурированных профилей детализации изображения. Вместо этого меню настроек предлагает несколько отдельных опций, контролирующих различные параметры графического движка. Для того чтобы игра была по силам слабым или просто устаревшим ускорителям, мы перемещали ползунки в положение минимального качества картинки, а мощные видеокарты, в свою очередь, выполнили тесты при бескомпромиссно высоких опциях. В промежуточных ситуациях шла в ход комбинация настроек, которая существенно снижает нагрузку на GPU по сравнению с требованиями при высших настройках детализации, но вместе с тем сохраняет привлекательный вид игры.
|Настройки качества графики в тестах
|Мин. качество
|Средн. качество
|Макс. качество
|Anti-aliasing
|None
|None
|TSSAA
|Texture Streaming Budget
|Off
|Medium (3GB VRAM)
|Insane (8GB VRAM)
|Texture Filtering
|Anisotropic 16X
|Anisotropic 16X
|Anisotropic 16X
|Ambient Occlusion Quality
|Off
|Medium
|High
|Sun Shadow Coverage
|Low
|High
|High
|Sun Shadow Detail
|Low
|High
|High
|Volumetric Lighting
|Disabled
|Enabled
|Enabled
|Dynamic Spot Shadows
|Disabled
|Enabled
|Enabled
|Model Detail
|High
|High
|High
|Effects Detail
|Low
|Medium
|High
|Impact Marks
|Low
|Medium
|High
|Ragdolls
|Low
|Medium
|High
Единственный параметр, который мы оставили в покое, — это режим фильтрации текстур. На современных видеокартах он не дает возможности существенно повысить частоту смены кадров, зато чрезвычайно сильно влияет на четкость рендеринга, поэтому во всех тестах использовалась 16-кратная анизотропия. Кроме того, пришлось смириться с тем, что Apex Legends (по крайней мере, на нашей тестовой системе) игнорирует настройку детализации моделей и упрямо возвращает ее в максимальное положение. Сразу отметим, что возможности сменить API с Direct3D 11 на Direct3D 12 или Vulkan в игре нет. Это привилегия немногочисленных проектов на движке Source второй версии.
Как можно убедиться по скриншотам, минимальные и предельно высокие настройки Apex Legends различаются как небо и земля. На качество изображения больше всего влияет параметр Texture Streaming Budget, хотя частота смены кадров при его различных значениях существенно меняется только в том случае, когда GPU испытывает дефицит локальной памяти.
⇡#
**Тестовый стенд, методика тестирования**
|Тестовый стенд
|CPU
|Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
|Материнская плата
|ASUS MAXIMUS XI APEX
|Оперативная память
|G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 Гбайт (3200 МГц, CL14)
|ПЗУ
|Intel SSD 760p, 1024 Гбайт
|Блок питания
|Corsair AX1200i, 1200 Вт
|Система охлаждения CPU
|Corsair Hydro Series H115i
|Корпус
|CoolerMaster Test Bench V1.0
|Монитор
|NEC EA244UHD
|Операционная система
|Windows 10 Pro x64
|ПО для GPU AMD
|Все видеокарты
|AMD Radeon Software Adrenalin 2019 Edition 19.4.1
|ПО для GPU NVIDIA
|Все видеокарты
|NVIDIA GeForce Game Ready Driver 425.31
Поскольку в Apex Legends нет встроенного бенчмарка, измерение производительности было выполнено с помощью утилиты OCAT в коротком отрезке многопользовательской сессии. Для того чтобы корректно выполнить сравнение самых мощных видеокарт, мы отключили лимит частоты смены кадров 144 FPS, который установлен в Apex Legends по умолчанию.
Показатели средней и минимальной кадровой частоты выводятся из массива времени рендеринга индивидуальных кадров. Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени рендеринга кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста.
В отличие от тестов в одиночном тренировочном режиме, такая методика адекватно отражает типичную нагрузку на GPU в Apex Legends, хотя и не лишена своих изъянов. В силу того, что процедуру бенчмарка невозможно в точности повторить на нескольких десятках видеокарт, нам пришлось понизить точность замеров минимального FPS со стандартного 1-го процентиля на 5-й (хотя при этом средние значения частоты смены кадров оказались достаточно стабильными). Кроме того, избранная тестовая сцена не является самой требовательной из того, на что способен движок Apex Legends (в частности, при высадке из самолета в начале матча возникает более высокая нагрузка), и мы также избегали столкновений с другими игроками. В свете этих поправок стоит считать, что в результаты тестирования всех видеокарт заложен определенный резерв по минимальным и средним значениям FPS.
*Прим.:* * в спецификациях графических карт Vega и Radeon VII в качестве высшей частоты (Boost Clock) AMD указывает не максимально допустимую при штатных настройках, как было в предыдущих поколениях архитектуры GCN, а верхнюю границу диапазона, в котором GPU работает при типичной нагрузке. Но так как утилиты для мониторинга и разгона, включая фирменный WattMan, игнорируют Boost Clock и по-прежнему показывают предельную частоту, в списке устройств и на диаграммах указана именно она.*
Как и в предыдущих массовых тестах графических карт, мы сгруппировали результаты измерений в соответствии с разрешением экрана и детализацией графики. В каждом из трех режимов (1920 × 1080, 2560 × 1440, 3840 × 2160) выполнен тест c минимальными, средними и максимальными настройками качества.
Если какая-либо видеокарта отсутствует на диаграмме при определенном разрешении, то это значит, что а) при более высоком качестве графики устройство уже обеспечивает среднюю частоту смены кадров 60 FPS и выше; б) устройство не достигло 30 FPS при данной комбинации разрешения и детализации. Таким образом для каждой взятой видеокарты определяется диапазон настроек между «едва тянет» и «снижать качество не требуется».
Для того чтобы играть в Apex Legends при разрешении Full HD, от графического процессора не требуется больших усилий, особенно в том случае, когда его владелец не рвется к высоким настройкам качества графики. По современным стандартам эта игра настолько демократична, что на диаграмму, соответствующую минимальным параметрам детализации, попали такие устройства, как GeForce GTX 750 Ti, Radeon R7 360 и Radeon RX 550. А вот более современная «видеокарта-затычка», GeForce GT 1030, по всей видимости, навсегда покинула наши сравнительные тесты — ей не хватило 3 кадров в секунду, чтобы получить оценку в 30 FPS и занять нижнюю позицию графика.
Видеокарты на одну ступеньку выше — как старые (Radeon R7 370, GeForce GTX 950), так и сравнительно новые модели (Radeon RX 460, GeForce GTX 1050 Ti) — позволяют установить средние настройки качества графики, сохраняя минимально приемлемый уровень частоты смены кадров. В свою очередь, современные устройства массовой ценовой категории (Radeon RX 470/570, GeForce GTX 1060) вместе с мощными видеокартами прошлых поколений (Radeon R9 390X, GeForce GTX 970) подходят для игры с быстродействием от 60 FPS при средних параметрах детализации и обеспечивают не меньше 30 FPS при максимальных настройках.
И наконец, все, что нужно Apex Legends для того, чтобы поддерживать частоту смены кадров на уровне 60 FPS с предельно высокими параметрами детализации, — современная видеокарта уровня Radeon RX 580, GeForce GTX 1070 или флагманский ускоритель ушедшей эпохи (Radeon R9 Fury X, GeForce GTX 980 Ti). Новейшие модели NVIDIA, GeForce GTX 1660 и GTX 1660 Ti, тоже попали в эту престижную категорию.
Еще более мощные устройства способны увести Apex Legends далеко за пределы 100 FPS, хотя лимит в 144 FPS, установленный в игре по умолчанию, вполне соответствует реалиям многопользовательской игры: действующий флагман зеленой команды, GeForce RTX 2080 Ti, достиг отметки 158 FPS в избранной нами тестовой сцене.
Прожорливость графического движка Apex Legends резко увеличивается вместе с разрешением экрана, хотя в режиме 1440p игра все еще не предъявляет слишком высоких запросов к производительности железа. Линия минимальных системных требований, когда видеокарта обеспечивает среднюю частоту смены кадров более 30, но менее 60 FPS при низких параметрах качества графики, проходит сквозь модельный ряд недорогих решений AMD и NVIDIA, выпущенных в последние годы, — Radeon RX 560 (быстродействия RX 460 здесь уже недостаточно), GeForce GTX 1050 Ti, а также Radeon R9 370X и GeForce GTX 960.
Среди видеокарт, оснащенных более мощными графическими процессорами, большинству моделей по силам средние и максимальные настройки детализации Apex Legends. Radeon RX 470 и RX 570 или GeForce GTX 1060 гарантируют среднюю частоту смены кадров на уровне 30 FPS и выше. Не хуже выступили и популярные модели позапрошлого поколения — Radeon R9 390X и GeForce GTX 970.
Однако в рамках более строгих критериев оценки производительности (не меньше 60 FPS по средней частоте смены кадров) железо подобного уровня навсегда привязано к низким параметрам качества графики. При средней детализации для комфортной игры уже необходимы Radeon RX Vega 56, GeForce GTX 1070 Ti или GeForce GTX 1660, а из устаревших моделей подходит только одна — Radeon R9 Fury X. В свою очередь, при максимально высоких настройках отметку в 60 FPS преодолели Radeon RX Vega 64 и GeForce GTX 1070 Ti. Семейство видеокарт на чипах Turing, начиная с GeForce GTX 1660 Ti, также без всяких ограничений годится для сражений в Apex Legends в режиме 1440p, равно как и лучшая модель AMD на сегодняшний день — Radeon VII.
Нагрузка при разрешении Ultra HD превышает возможности основной массы видеокарт — даже в такой демократичной игре, как Apex Legends. Если вы согласны променять среднюю частоту смены кадров выше 60 FPS на повышенную четкость изображения, которую обеспечивает режим 2160p, Apex Legends дает такую возможность владельцам современных ускорителей средней ценовой категории (Radeon RX 570, GeForce GTX 1060) или передовых видеокарт позапрошлого поколения (Radeon R9 390X и GeForce GTX 980) при минимальных настройках качества графики.
Для того чтобы достигнуть рубежа 30 FPS при средних параметрах детализации, нужно сделать лишь один шаг вверх по лестнице моделей AMD и NVIDIA: необходимой производительностью обладают современные предложения в промежутке между средней и высокой ценовыми категориями (Radeon RX 590 и GeForce GTX 1070), которые делят свою позицию с мощными олд-таймерами Radeon R9 Fury и GeForce GTX 980 Ti. Отбор по частоте смены кадров для максимальных настроек качества графики в 4К со стороны AMD прошли Radeon RX Vega 56 и Radeon R9 Fury X, а со стороны NVIDIA — GeForce GTX 1070 Ti и GeForce GTX 1660.
В силу того, что Apex Legends сама по себе является довольно легковесной игрой по сравнению с другими проектами такого калибра, кадровую частоту в ней трудно регулировать за счет установок детализации. Преобладающее значение имеет количество пикселов в кадре, и это особенно заметно при сверхвысоком разрешении. Так, лишь одна видеокарта с запасом преодолела отметку 60 FPS в режиме 2160p с наивысшими параметрами качества — это GeForce GTX 2080 Ti. Компромиссные настройки выдвинули вперед GeForce GTX 2080, и даже при наиболее щадящих опциях для игры в Apex Legends на 4К-мониторе необходимы серьезные инвестиции: Radeon Vega 64 LC или GeForce GTX 1080 Ti, а лучше всего — видеокарта серии GeForce RTX, ведь даже младшая из них (GeForce RTX 2060) оставила позади и все семейство Vega первого поколения, и формально более производительную модель GeForce GTX 1080.
По минимальным системным требованиям Apex Legends можно сравнить с другим многообещающим онлайн-проектом, Tom Clancy’s The Division 2. Входным билетом в обе игры может послужить довольно старый и простенький графический ускоритель — GeForce GTX 750 Ti или Radeon R7 360, а современная видеокарта средней ценовой категории наподобие Radeon RX 580 или GeForce GTX 1660 полностью удовлетворяет запросам Apex Legends в «народном» режиме 1080p. Сторонники апгрейда крупными шагами раз в несколько лет, которые в свое время потратились на флагманскую плату уровня GeForce GTX 980 Ti или Radeon R9 Fury X, тоже могут не спешить с модернизацией.
Вместе с тем все приемы, за счет которых разработчики Apex Legends облегчили нагрузку на графический процессор, уже заложены в ее движок и игровую среду. Манипуляции с настройками графики не слишком полезны в том случае, когда видеокарте трудно совладать с повышенным разрешением экрана. В режиме 1440p массовые GPU требуют огромных жертв в детализации моделей, текстур и эффектов освещения, чтобы сохранить быстродействие на уровне 60 FPS. Мощные устройства класса Radeon RX Vega 56/64, GeForce GTX 1070 Ti и выше лишены ограничений при разрешении 1440p, но, в свою очередь, бенчмарк в 2160p ставит их в точно такую же ситуацию. Только старшие модели серии GeForce RTX (2080 и 2080 Ti) и — с определенными допущениями — Radeon VII станут решением уравнения «Apex Legends + монитор с разрешением 4K».
Отдельно стоит рассказать о том, как тесты быстродействия Apex Legends расставили GPU различной архитектуры и различных поколений. На графиках с максимальными настройками качества бросается в глаза, как сильно сдали ускорители на чипах Pascal по сравнению с новыми предложениями NVIDIA. Достаточно сказать, что GeForce GTX 1080 Ti, который считается формальным соперником GeForce RTX 2080, здесь всего лишь догоняет GeForce RTX 2070, а GeForce GTX 1080 отстал от GeForce RTX 2060.
Для AMD сложилась более приятная картина: как мы уже не раз замечали в последних групповых и одиночных тестах GPU, новые драйверы помогли видеокартам на чипах Polaris и Vega взять реванш у своих главных конкурентов — GeForce GTX 1060 и GeForce GTX 1080. Но объявить Apex Legends очередным «красным» проектом мешают GeForce GTX 1660 и GTX 1660 Ti: даже младшая из двух новинок NVIDIA здесь успешно борется с Radeon RX Vega 56, не говоря уже о Radeon RX 580 и RX 590. И наконец, Radeon VII оказался в довольно-таки парадоксальной ситуации: при разрешении 1080p лучший боец AMD занял второе место на графике после GeForce RTX 2080 Ti, но при повышенной нагрузке в режимах 1440p и 2160p опустился ниже GeForce RTX 2080, хотя обычно с чипами архитектуры GCN все происходит ровно наоборот.
|Низкое качество графики
|1920 × 1080
|2560 × 1440
|3840 × 2160
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|AMD Radeon 300
|AMD Radeon R7 360 (2 Гбайт)
|AMD Radeon R9 380X (4 Гбайт)
|AMD Radeon R9 370X (2 Гбайт)
|AMD Radeon R9 390X (8 Гбайт)
|AMD Radeon R9 390X (8 Гбайт)
|AMD Radeon 400
|AMD Radeon RX 460 (4 Гбайт)
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon RX 480 (8 Гбайт)
|AMD Radeon 500 / AMD Radeon RX Vega / AMD Radeon VII
|AMD Radeon RX 550 8 CU (2 Гбайт)
|AMD Radeon RX 560 16 CU (4 Гбайт)
|AMD Radeon RX 580 (8 Гбайт)
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX Vega 64 LC (8 Гбайт)
|NVIDIA GeForce 700/900
|NVIDIA GeForce GTX 750 Ti (2 Гбайт)
|NVIDIA GeForce GTX 970 (4 Гбайт)
|NVIDIA GeForce GTX 960 (2 Гбайт)
|NVIDIA GeForce GTX 980 (4 Гбайт)
|NVIDIA GeForce GTX 980 (4 Гбайт)
|NVIDIA GeForce 10
|NVIDIA GeForce GTX 1050 Ti (4 Гбайт)
|NVIDIA GeForce GTX 1050 Ti (4 Гбайт)
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1080 Ti (11 Гбайт)
|NVIDIA GeForce 16/20
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce RTX 2060 FE (6 Гбайт)
|Среднее качество графики
|1920 × 1080
|2560 × 1440
|3840 × 2160
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|AMD Radeon 300
|AMD Radeon R7 370 (4 Гбайт)
|AMD Radeon R9 390X (8 Гбайт)
|AMD Radeon R9 380X (4 Гбайт)
|AMD Radeon R9 Fury X (4 Гбайт)
|AMD Radeon R9 Fury (4 Гбайт)
|AMD Radeon 400
|AMD Radeon RX 460 (4 Гбайт)
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon 500 / AMD Radeon RX Vega / AMD Radeon VII
|AMD Radeon RX 560 16 CU (4 Гбайт)
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX Vega 56 (8 Гбайт)
|AMD Radeon RX 590 (8 Гбайт)
|NVIDIA GeForce 700/900
|NVIDIA GeForce GTX 950 (2 Гбайт)
|NVIDIA GeForce GTX 970 (4 Гбайт)
|NVIDIA GeForce GTX 970 (4 Гбайт)
|NVIDIA GeForce GTX 980 Ti (6 Гбайт)
|NVIDIA GeForce 10
|NVIDIA GeForce GTX 1050 Ti (4 Гбайт)
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1050 Ti (4 Гбайт)
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|NVIDIA GeForce 16/20
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce RTX 2080 FE (8 Гбайт)
|Максимальное качество графики
|1920 × 1080
|2560 × 1440
|3840 × 2160
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|≥ 30 FPS
|≥ 60 FPS
|AMD Radeon 300
|AMD Radeon R9 380X (4 Гбайт)
|AMD Radeon R9 Fury (4 Гбайт)
|AMD Radeon R9 390X (8 Гбайт)
|AMD Radeon R9 Fury X (4 Гбайт)
|AMD Radeon 400
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon RX 470 (8 Гбайт)
|AMD Radeon 500 / AMD Radeon RX Vega / AMD Radeon VII
|AMD Radeon RX 560 16 CU (4 Гбайт)
|AMD Radeon RX 580 (8 Гбайт)
|AMD Radeon RX 570 (8 Гбайт)
|AMD Radeon RX Vega 64 (8 Гбайт)
|AMD Radeon RX Vega 56 (8 Гбайт)
|NVIDIA GeForce 700/900
|NVIDIA GeForce GTX 960 (2 Гбайт)
|NVIDIA GeForce GTX 980 Ti (6 Гбайт)
|NVIDIA GeForce GTX 970 (4 Гбайт)
|NVIDIA GeForce 10
|NVIDIA GeForce GTX 1050 Ti (4 Гбайт)
|NVIDIA GeForce GTX 1070 (8 Гбайт)
|NVIDIA GeForce GTX 1060 (6 Гбайт, 9 Гбит/с)
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|NVIDIA GeForce GTX 1070 Ti (8 Гбайт)
|NVIDIA GeForce 16/20
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce GTX 1660 Ti (6 Гбайт)
|NVIDIA GeForce GTX 1660 (6 Гбайт)
|NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)
**Прим.:** *в таблицах приведены минимально достаточные карты каждого из семейств. Карты с большими порядковыми номерами, естественно, также годятся для указанных режимов.* |
986,986 | Обзор Nokia 9 PureView: смартфон с самой необычной камерой | Все счастливые обладатели смартфонов счастливы одинаково, но каждый несчастный несчастлив по-своему. В Nokia 9 PureView смешалось, конечно, не все. Но в этом смартфоне, который создан, чтобы вернуть возрожденную финскую компанию в списки инноваторов и авангардистов, объединились сразу несколько различных технологий. Это первый в мире шестикамерный телефон, но примечателен он не столько количеством камер, сколько их компоновкой: два RGB-сенсора здесь соседствуют с тремя монохромными, причем все они – с одним фокусным расстоянием. Вместо какого-то сумасшедшего зума мы получаем навороченный (и неотключаемый) HDR, за обработку которого отвечает особый сигнальный процессор от нашумевшего стартапа Light. Шестая камера сделана на базе уже более-менее привычного TOF-сенсора, который позволяет получить карту глубины. В данном случае — не только для портретного режима с привычным программным боке, но и для изменения глубины резкости постфактум.
Это две ключевых особенности Nokia 9 PureView – они обе связаны, как и следовало ожидать от смартфона с таким названием, с работой его камеры. Однако есть и другие: традиционный дизайн без «челок» и выдвижных элементов, но с довольно крупными рамками вокруг шестидюймового OLED-дисплея; прошлогодняя флагманская платформа Qualcomm Snapdragon 845; фирменный лаконичный дизайн.
Сложилось ли из этих составляющих нечто особенное — или Nokia 9 PureView обречен на место в списке диковинок, которые по тем или иным причинам провалились в продаже, но сохранились в памяти историков технологий, как и Nokia 808 PureView в свое время? Разбираемся.
|
Nokia 9 PureView |
Sony Xperia XZ3 |
OnePlus 6T |
Xiaomi Mi 9 |
Oppo RX17 Pro
|
Дисплей |6 дюймов, P-OLED, 2560 × 1440, 490 ppi, емкостный мультитач
|6 дюймов, OLED, 2880 × 1440, 537 ppi, емкостный мультитач
|6,41 дюйма, AMOLED,
2340 × 1080 точек, 402 ppi, емкостный мультитач
|6,39 дюйма, AMOLED,
2340 × 1080 точек, 403 ppi, емкостный мультитач
|6,4 дюйма, AMOLED,
2340 × 1080 точек, 401 ppi, емкостный мультитач
|
Защитное стекло |Corning Gorilla Glass 5
|Corning Gorilla Glass 5
|Corning Gorilla Glass 6
|Corning Gorilla Glass 6
|Corning Gorilla Glass 6
|
Процессор |Qualcomm Snapdragon 845: четыре ядра Kryo 385 Gold, частота 2,7 ГГц + четыре ядра Kryo 385 Silver, частота 1,7 ГГц
|Qualcomm Snapdragon 845: четыре ядра Kryo 385 Gold, частота 2,7 ГГц + четыре ядра Kryo 385 Silver, частота 1,7 ГГц
|Qualcomm Snapdragon 845: четыре ядра Kryo 385 Gold, частота 2,8 ГГц + четыре ядра Kryo 385 Silver, частота 1,7 ГГц
|Qualcomm Snapdragon 855: одно ядро Kryo 485 Gold, частота 2,85 ГГц + три ядра Kryo 485 Gold, частота 2,42 ГГц + четыре ядра Kryo 485 Silver, частота 1,8 ГГц
|Qualcomm Snapdragon 710: два ядра Kryo 360 Gold, частота 2,2 ГГц + шесть ядер Kryo 360 Silver, частота 1,7 ГГц
|
Графический контроллер |Adreno 630, 710 МГц
|Adreno 630, 710 МГц
|Adreno 630, 710 МГц
|Adreno 640
|Adreno 616, 750 МГц
|
Оперативная память |6 Гбайт
|4 Гбайт
|6/8/10 Гбайт
|6/8/12 Гбайт
|6 Гбайт
|
Флеш-память |128 Гбайт
|64 Гбайт
|128/256 Гбайт
|128/256 Гбайт
|128 Гбайт
|
Поддержка карт памяти |Нет
|Есть
|Нет
|Нет
|Есть
|
Разъемы |USB Type-C
|USB Type-C
|USB Type-C
|USB Type-C
|USB Type-C
|
SIM-карты |Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|Две nano-SIM
|
Сотовая связь 2G |GSM 850 / 900 / 1800 / 1900 МГц
|GSM 850 / 900 / 1800 / 1900 МГц
|GSM 850 / 900 / 1800 /1900 МГц
CDMA 800/1900
|GSM 850 / 900 / 1800 / 1900 МГц
CDMA 800
|GSM 850 / 900 / 1800 / 1900 МГц
|
Сотовая связь 3G |HSDPA 850 / 900 / 1900 / 2100 МГц
|HSDPA 800 / 850 / 900 / 1700 / 1900 / 2100 МГц
|HSDPA 800 / 850 / 900 / 1700 / 1800 / 1900 / 2100 МГц
|HSDPA 850 / 900 / 1700 /1 900 / 2100 МГц
|WCDMA 800 / 850 / 900 / 1700 / 1900 / 2100 МГц
|
Сотовая связь 4G |LTE Cat.16 (до 1024 Мбит/с): диапазоны не уточняются
|LTE Cat.18 (до 1200 Мбит/с): диапазоны не уточняются
|LTE Cat.16 (до 1024 Мбит/с): диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 13, 17, 18, 19, 20, 25, 26, 28, 29, 30, 32, 34, 38, 39, 40, 41, 46, 66, 71
|LTE: диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 20, 28, 38, 39, 40
|LTE Cat.15 (до 800 Мбит/с): диапазоны 1, 2, 3, 4, 5, 7, 8, 12, 17, 18, 19, 20, 25, 26, 28, 32, 34, 38, 39, 40, 41
|
Wi-Fi |802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|802.11a/b/g/n/ac
|
Bluetooth |5.0
|5.0
|5.0
|5.0
|5.0
|
NFC |Есть
|Есть
|Есть
|Есть
|Есть
|
Навигация |GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo, QZSS
|GPS, A-GPS, ГЛОНАСС, BeiDou, Galileo
|
Датчики |Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|Освещенности, приближения, акселерометр/гироскоп, магнитометр (цифровой компас)
|
Сканер отпечатков пальцев |Есть, на экране
|Есть
|Есть, на экране
|Есть, на экране
|Есть, на экране
|
Основная камера |Шестерной модуль: 5 × 12 Мп, ƒ/1,8 + TOF-камера, контрастный автофокус (с лазерным помощником), двойная светодиодная вспышка
|19 Мп, ƒ/2,0 оптическая стабилизация, гибридный автофокус, светодиодная вспышка
|Двойной модуль, 16 + 20 Мп, ƒ/1,7 + ƒ/1,7, гибридный автофокус, двойная светодиодная вспышка
|Тройной модуль: 48 Мп, ƒ/1,8 + 16 Мп, ƒ/2,2 + 12 Мп, ƒ/2,2, гибридный автофокус, двойная светодиодная вспышка
|Двойной модуль, 12 + 20 Мп, ƒ/1,5-2,4 + ƒ/2,6, фазовый автофокус, оптическая стабилизация, светодиодная вспышка
|
Фронтальная камера |20 Мп, ƒ/2,0, фиксированный фокус
|13 Мп, ƒ/1,9, без автофокуса, без вспышки
|16 Мп, ƒ/2,0, фиксированный фокус
|20 Мп, ƒ/2,0, фиксированный фокус
|25 Мп, ƒ/2,0, фиксированный фокус, без вспышки
|
Питание |Несъемный аккумулятор: 12,62 Вт·ч (3320 мА·ч, 3,8 В)
|Несъемный аккумулятор на 12,65 Вт·ч (3330 мА·ч, 3,8 В)
|Несъемный аккумулятор: 14,06 Вт·ч (3700 мА·ч, 3,8 В)
|Несъемный аккумулятор: 12,54 Вт·ч (3300 мА·ч, 3,8 В)
|Несъемный аккумулятор: 14,06 Вт·ч (3700 мА·ч, 3,8 В)
|
Размер |155 × 75 × 8 мм
|158 × 73 × 9,9 мм
|157,5 × 74,8 × 8,2 мм
|157,5 × 74,7 × 7,6 мм
|157,6 × 74,6 × 7,9 мм
|
Масса |172 грамма
|193 грамма
|185 граммов
|173 грамма
|183 грамма
|
Защита корпуса |IP67
|IP65/68
|Нет
|Нет
|Нет
|
Операционная система |Android 9.0 Pie
|Android 8.0 Oreo, оболочка Sony Xperia
|Android 9.0 Pie, оболочка OxygenOS
|Android 9.0 Pie, оболочка MIUI
|Android 8.1 Oreo, оболочка ColorOS
|
Актуальная цена |49 990 рублей
|47 990 рублей
|44 990 рублей за версию 6/128 Гбайт, 39 350 рублей за версию 8/128 Гбайт, 52 990 рублей за версию 8/256 Гбайт
|35 990 рублей за версию 6/64 Гбайт, 38 450 рублей за версию 6/128 Гбайт
|49 990 рублей
⇡#
**Дизайн, эргономичность и программное обеспечение**
Смартфоны Nokia «новой эры» выделяются на общем фоне неброским, но породистым дизайном. Есть подозрение, что это одна из четырех главных составляющих успеха вернувшегося бренда – наряду с громким именем, Android One и разумной ценовой политикой. Nokia 9 PureView сделан в том же стиле. Здесь не нашлось места каким-то модным тенденциям вроде почти абсолютной безрамочности, требующей ухищрений по размещению фронтальной камеры. Фронталка по классике вписана в рамку над верхней кромкой экрана формата 18:9. Еще совсем недавно подобное соотношение сторон было в новинку (маховик запустила в 2017 году LG), а теперь кажется едва ли не архаичным на фоне всеобщего поклонения узким дисплеям с соотношением 19:9, 19,5:9, а то и 21:9, как в случае со свежими Sony Xperia.
Но не сказал бы, что Nokia 9 PureView выглядит сколько-нибудь устаревшим смартфоном. Несмотря на то, что дисплей занимает не слишком-то солидный процент от площади лицевой панели (производитель его не указывает, понятное дело), это не бросается в глаза. Скорее, наоборот, выглядит до какой-то степени бескомпромиссным решением, наряду с относительно небольшой диагональю экрана – шесть дюймов.
Смартфон в итоге удобен в использовании, он не получился слишком здоровым. И пусть это все равно неизбежная работа двумя руками, а по габаритам «девятка» сравнима со своими конкурентами, получившими дисплеи диагональю 6,4 или 6,5 дюйма, речи о каком-то серьезном проигрыше в плане пользовательского опыта не идет. Просто внешне это смартфон для любителей классики – как раз для целевой аудитории Nokia.
И спереди, и сзади корпус Nokia 9 PureView прикрыт закаленным стеклом Gorilla Glass 5. Сзади оно скруглено по краям, за счет чего смартфон может уехать с недостаточно ровной поверхности, зато более комфортно укладывается в ладонь. Самое приятное дизайнерское решение – хромированная кайма по периметру корпуса; это уже фирменный знак новой Nokia, и он не перестает радовать глаз. Разве что нет-нет да и ослепит отблеском на солнце. Грани смартфона сделаны, как обычно, из алюминия с необходимыми для корректной работы антенн пластиковыми прожилками.
Цветовое решение – одно-единственное, Nokia 9 PureView может быть только темно-синей (под определенным углом зрения – по сути, черной). И это, надо признать, красиво, пусть и скучновато.
Несмотря на весь классицизм, аналогового аудиоразъема Nokia 9 PureView лишилась. Увы, здесь компания подалась в сторону моды, но хотя бы компенсировала это заявленной влагозащитой, пусть и по стандарту IP67.
В остальном никаких оригинальных эргономических решений, кроме, само собой, задней панели, перекрытой почти наполовину камерами. Их объективы не выступают над корпусом, и это вроде бы хорошо, но по факту из-за повышенной площади покрытия корпуса объективами заляпать хоть один из них в итоге очень просто. Понять на ощупь, что ты только что потрогал объектив, невозможно. В отличие от аппаратов Samsung, понимать эту проблему смартфон не умеет: он не извещает об искаженной из-за отпечатка пальца на стекле картинке, так что следить за этим необходимо самостоятельно. Специальной клавиши для спуска затвора, как в 808 PureView, тут нет.
Сканер отпечатков пальцев в Nokia 9 PureView вынесен на экран, и, если судить по тому, как он работает, использован оптический, а не ультразвуковой сенсор, причем очень низкого уровня. Увы, работает экранный сканер здесь, пожалуй, хуже, чем везде, где мы это видели раньше (тогда первое место в этом печальном соревновании занимал Huawei Mate 20 Pro). Уже на этапе записи отпечатка он начинает тупить и требовать «нажать на экран сильнее», чувствительность очень низкая. Продолжается это и в процессе пользования – большая часть попыток разблокировать смартфон пальцем кончаются тем, что ты просто вводишь пароль. Или включаешь метод идентификации по лицу – он работает куда стабильнее, пусть и только при нормальном освещении. Для лицевого распознавания не предусмотрено никаких дополнительных сенсоров, лишь фронтальная камера, что также влияет на безопасность этого метода.
Nokia 9 PureView работает под управлением Android 9 Pie почти без примесей. Почти – потому что абсолютно чистого «робота» не существует, каждый производитель обязан вносить какую-то свою лепту, создавать пусть и условную, но оболочку (в том числе так делает и сама Google в своих Pixel — это тоже не
*чистый Android*). У Nokia эта лепта традиционно минимальна, а смартфоны этой компании, как правило, включены в программу Android One, которая предусматривает обновления первой очереди и неограниченное место в облачном сервисе Google для фотографий и роликов, записанных на смартфон. Это очень уместно для такого камерофона, как Nokia 9 PureView, в котором нет даже слота для карты памяти… Стоп. Уместно было бы, если бы он был включен в эту программу. Но именно этот гаджет программа обошла стороной – дело в том, что, по условиям договора Nokia и Google, в программу может быть включено одновременно только пять моделей, и «девятка» в это число не попала. Говорит ли это о низких ожиданиях в отношении продаж смартфона? Зачем, мол, тратить позицию на устройство, которое все равно мало кто купит? Или это какие-то внутренние проблемы с сертификацией? Оставим вопрос без ответа.
В Nokia 9 PureView установлен вполне современный дисплей, P-OLED с 2K-разрешением (2560 × 1440 точек). Разве что диагональ в 5,99 дюйма может не устроить привыкших к современным «лопатам» пользователей. Плотность пикселей при этом хороша – 490 ppi, это вполне элитный уровень, позволяющий рассчитывать на предельную четкость, при которой даже просмотр видео с 4К-разрешением на смартфоне обретает какой-никакой смысл. Панели для Nokia поставляет компания LG.
Дисплей снабжен сенсорным покрытием, реагирующим на 10 одновременных прикосновений, все основные жесты мультитач поддерживаются. Есть поляризационный слой. Олеофобное покрытие очень эффективное — первозданный облик смартфона можно сохранять без особого труда, изредка протирая экран.
Максимальная измеренная яркость составляет 487 кд/м
2. Этого вполне достаточно, чтобы обеспечивать качественную работу дисплея на солнце. Дисплей сертифицирован по стандарту HDR10, то есть в пиковых режимах яркость будет достигать 600 кд/м 2, создавая необходимый для этого стандарта динамический диапазон. Контрастность у дисплеев на органических светодиодах мы считаем условно-бесконечной.
Как и в большинстве смартфонов с OLED-дисплеями, на Nokia 9 PureView можно включить экранную заставку с часами, будильником и уведомлениями даже на заблокированном дисплее – здесь она, правда, будет активироваться только при подключении гаджета к источнику питания, адаптеру или док-станции. Это решение производителя видится вполне оправданным, несмотря на вроде бы незначительные затраты энергии, – с автономностью у «девятки» в целом есть очень серьезные проблемы, поговорим о них подробнее в соответствующем разделе ближе к концу обзора.
В Nokia 9 PureView экранные настройки спрятаны в подменю PureDisplay, где можно либо отдать управление цветопередачей, яркостью и контрастностью смартфону (он будет стараться подбирать настройки в зависимости от ситуации – получается, прямо скажем, с переменным успехом), либо выбрать одну из предустановок: яркую, «кино» или стандартную. Я протестировал смартфон со стандартной и кинематографической установками.
Средняя гамма в стандартном режиме цветопередачи составляет 2,09 при достаточно спокойном поведении кривых, которые устремляются ввысь только в светлых тонах. Цветовая температура повышена, но незначительно – она колеблется в пределах 7 500-8 000 К. Цвета чуть холодноваты, но не критично. Цветовой охват немного шире sRGB, но опять же незначительно — он очевидно настроен по умолчанию близко к этому стандарту. Среднее отклонение DeltaE по шкале Color Checker (оттенки серого + расширенная палитра цветов) составляет 5,36. В границы нормы этот показатель не попадает, но и совсем уж далеко от этих самых границ не уходит.
При переводе смартфона в режим цветопередачи «Кино» картинка сильно теплеет, цветовая температура приближается к эталонной отметке в 6 500 К (но в основном держится в районе 7 000 К), гамма стабилизируется (среднее значение – 2,20), а цветовое пространство расширяется до близкого к DCI-P3. Точность совпадения цветов с мишенями при этом тоже повышается, но не до эталонного уровня: среднее отклонение DeltaE по шкале Color Checker составляет 4,33 при норме в 3,00. Уровень хороший, но не идеальный.
В целом же надо сказать, что сочетание формата дисплея (вполне разумные 18:9 — картинка при растягивании на весь экран почти не искажается), разрешения и поддержки HDR позволяет признать Nokia 9 PureView одним из лучших смартфонов именно для просмотра видео. Для полноценного вхождения в топ не хватает только более точной заводской настройки дисплея.
Звуковые возможности Nokia 9 PureView кажутся спорными. Тут нет мини-джека, так что проводные наушники придется подключать через переходник, но это полбеды, к тому же давно привычные. Вторая половина этой самой беды в том, что мощностью выходной тракт не отличается – звучание в проводных наушниках высокого класса (я тестирую смартфоны с наушниками OPPO PM-3) достаточно хорошего качества, но не очень громкое даже при выкручивании на максимум. С беспроводными наушниками таких проблем нет – и с громкостью все нормально, и aptX с aptX HD поддерживаются. Встроенный динамик в Nokia 9 PureView монофонический, он расположен на нижней грани, не перекрывается пальцем, если держать смартфон в альбомной ориентации, но ни качеством звука, ни громкостью он не отличается. Я несколько раз пропускал звонки в транспорте в ситуациях, когда с другими телефонами не возникало никаких проблем.
⇡#
**«Железо» и производительность**
Nokia 9 PureView создан на базе Qualcomm Snapdragon 845, самой популярной флагманской платформы прошлого года. Решение нестандартное — все-таки уже в разгаре сезон 855-го «снэпдрэгона», но оно не лишено оснований: за счет выбора прошлогоднего чипа удалось чуть снизить стоимость устройства, а уровня мощности этой SoC и сегодня хватает за глаза. Впрочем, есть нюансы.
Первый нюанс связан с общей оптимизацией смартфона и тем, как он работает с базовыми приложениями. На первый взгляд, с этим не может быть никаких проблем. «Чистый» Android, мощная платформа, в чем загвоздка? А загвоздка в том, как на Nokia 9 PureView работают все приложения, связанные в той или иной мере с картинками. И Instagram✴, и VSCO запускаются небыстро, работают нестабильно (VSCO вообще зависает на регулярной основе) и, самое главное, чудовищно медленно подгружают изображения. Adobe Lightroom, который сам смартфон рекомендует установить при первом же запуске, работает заметно стабильнее, хотя тоже совсем небыстро.
Ситуация как на скриншотах выше (белый экран, требующий перезапуска приложения, в VSCO или нечитаемые изображения в «Инстаграме» — это они так медленно подгружаются, если подождать минут пять, то подгрузятся) – обычное дело, рядовой опыт для владельца Nokia 9 PureView, который убивает все удовольствие от пользования гаджетом. У него явно есть какая-то программная проблема с обработкой изображений и встройкой их в базовые для любого любителя мобильной фотографии приложения – причем для камерофона совсем уж базовые. Более того, определенные проблемы с оптимизацией есть и у других приложений, «девятка» в целом работает не слишком быстро, уступая по гладкости, например, прошлогоднему Nokia 7 Plus. Подобные проблемы со временем возникали и в позапрошлогоднем флагмане Nokia 8, для HMD Global (компании, которая стоит за смартфонным брендом Nokia) это, увы, не новость. В работе Nokia 9 PureView воспринимается скорее не как флагманский смартфон за 50 тысяч рублей, а как аппарат за 15-25 тысяч, причем с серьезными недоработками в определенных моментах.
Оперативной памяти при этом в Nokia 9 PureView достаточно, но без большого запаса с учетом 2К-экрана – 6 Гбайт LPDDR4X. А постоянной памяти – 128 Гбайт без возможности расширения и без неограниченного пространства на «Google.Фото», о чем я говорил выше. С учетом того, что Nokia предлагает активно снимать в RAW, в котором каждый снимок, сделанный на этот аппарат, «весит» 12-13 Мбайт, подобная прижимистость кажется смертельной для гаджета. Еще одно «увы».
Нейросетевые вычисления задействованы в работе Nokia 9 PureView минимально, та же камера практически не опирается на искусственный интеллект. Но при использовании сторонних приложений вы не будете испытывать недостатка в мощности.
Выше я говорил про первый нюанс с производительностью. Второй нюанс заключается в проблемном охлаждении. CPU Throttling Test демонстрирует, что с троттлингом у Nokia 9 PureView дела обстоят посредственно, но не катастрофически: понижение частот до 74 % от максимума при средней производительности 164,5 GIPS. Ничего страшного, но проблема в температуре, до которой за время 15-минутного теста, да и при регулярном использовании — особенно при фотографировании — разогревается корпус смартфона. Он буквально раскаляется, температура быстро доходит до 45-50 градусов, что влияет и на комфорт использования смартфона, и на вероятность перегрева. Играть на Nokia 9 PureView можно, и поначалу очень даже комфортно, но уже через 10-15 минут начнет проседать кадровая частота — приходится либо снижать графические настройки, либо останавливать игровую сессию.
⇡#
**Связь и беспроводные коммуникации**
В Nokia 9 PureView предусмотрено два слота для карточек стандарта nano-SIM. Оба слота работают с LTE 16-й категории (до 1024 Мбит/с на вход, до 150 Мбит/с на выход). Диапазоны, на которых может связываться с базовыми станциями смартфон, производитель не указывает. Никаких проблем со связью за время двухнедельного тестирования я не заметил, в этом отношении у PureView все стабильно.
Все необходимые беспроводные модули, за исключением ИК-порта, присутствуют: NFC (с поддержкой Google Pay), Bluetooth 5.0, Wi-Fi 802.11a/b/g/n/ac. Навигационный модуль работает с GPS (в том числе A-GPS), ГЛОНАСС, BeiDou, Galileo. Навигация осуществляется быстро и точно.
Наконец, о главном, ради чего весь сыр-бор и затевался, – о камере. Nokia 9 PureView в этом отношении действительно смартфон уникальный, не имеющий никаких аналогов даже близко. В нем установлен блок из пяти основных камер, дополнительной TOF-камеры, работающей в качестве датчика глубины, и двухдиодной вспышки. Благодаря их прихотливой расстановке на задней панели, напоминающей паука или расставленную им паутину, новая Nokia примерно одновременно со своим рождением получила сленговое прозвище «паукофон».
За фотографию тут отвечают два RGB-сенсора и три монохромных сенсора одинакового размера, 1/2,9’’ (размер отдельного пикселя – 1,25 мкм), и одинакового разрешения, 12 мегапикселей. С каждым из сенсоров работает оптика с относительным отверстием
*ƒ*/1,8. Оптического стабилизатора нет ни на одной из групп камер, что по-своему логично, иначе конструкция могла бы стать очень громоздкой. Но хотя бы на центральную камеру, которая в одиночку пишет видео, установить стабилизатор можно было.
Идея установить множество камер и объединять с них картинку в стремлении получить максимально широкий динамический диапазон и малошумное изображение при недостаточном освещении пришла в голову очень многим – на смартфонном уровне первыми ее реализовала Huawei со своим двухкамерником P9. На уровне специализированных камер порвала все шаблоны компания Light, которая собрала на свой дебютный аппарат L16 значительную сумму на Kickstarter и даже выпустила это шестнадцатикамерное (!) устройство в продажу, но, кроме вероятных перспектив технологии, продемонстрировать ничего не смогла – по качеству и скорости съемки Light L16 оставляла желать много лучшего. Это самое лучшее у Light, вероятно, впереди — компания работает над новыми устройствами. Но HMD Global поверила в технологию уже сейчас – и применила ее в Nokia 9 PureView.
От Light тут – сигнальный процессор, который выполняет основную работу по объединению картинки с пяти (шести в случае многослойной съемки) сенсоров. Далее картинка передается к стандартному сигнальному процессору, входящему в состав Qualcomm Snapdragon 845, – и уже результат этой двухступенчатой обработки видит пользователь. Забирать результат можно как в JPEG, так и в RAW (DNG). Прелесть этого подхода – в очень широком динамическом диапазоне, ведь любое полноцветное изображение, записанное на Nokia 9 PureView, – это, по сути, HDR, объединенный при одновременной съемке на пять камер, две из которых вдобавок обладают монохромными сенсорами, улавливающими больше света, чем RGB. Отключить HDR и снимать на одну из этих камер нельзя. Можно только активировать черно-белый режим – в нем новый PureView проявляет себя едва ли не лучше всего: монохромные снимки, сделанные на этот смартфон, производят очень приятное впечатление. Картинка глубокая, чистая и благородная.
С цветными снимками ситуация сложнее. С одной стороны – да, абсолютно верно, динамический диапазон впечатляет, деталей достаточно даже в самых контрастных сценах. С другой – программное обеспечение, обрабатывающее снимки, работает порой слишком грубо, перебирая и с контурной резкостью, и с попытками еще вытянуть детали из теней или пересвеченных областей. JPEG зачастую могут показаться неестественными, какими-то пластиковыми – причем при довольно бледных цветах. Вообще, бледные цвета часто принято называть естественными, но здесь, к сожалению, не совсем тот случай. В RAW-файлах этих проблем нет – при желании и любви к ручной обработке PureView оставляет очень хорошее пространство для творчества.
Здесь я предлагаю для примера несколько оригинальных JPEG (слева) и для сравнения – вытащенный из RAW в мобильном Lightroom с настройками по умолчанию (по центру) и с настройками по вкусу (справа). Можно увидеть, что Adobe «дружит» с DNG-файлами Nokia 9 PureView так себе – приложение их понимает и позволяет свободно с ними работать, но выбрать правильные настройки для обработки по умолчанию в автоматическом режиме может далеко не всегда. Впрочем, это, конечно, проблема программы Adobe, а не HMD Global.
Предлагаю самым любопытным скачать RAW-файлы (209 Мбайт), чтобы попробовать с ними поработать самостоятельно и оценить пластичность картинки.
Те же проблемы касаются и ночных снимков – Nokia 9 PureView в целом справляется со съемкой при недостаточном освещении, но естественную полноцветную картинку может выдать не всегда. И даже при возне с RAW-файлами в Lightroom добиться на ночных снимках того качества, которое выдают, к примеру, Samsung Galaxy S10+, Huawei P30 Pro или Google Pixel 3 XL при активации ночного режима, нельзя. Сказывается и отсутствие оптического стабилизатора, и слабость программного обеспечения, и отсутствие ночного режима с многокадровой экcпозицией.
Но тут всплывает вторая проблема. Про плохую дружбу современных мобильных приложений, работающих с фотографиями, со снимками, сделанными на PureView, я уже писал выше. Но ведь и времени на обработку сделанных фото этот смартфон тратит очень много! Здесь нельзя снять и тут же посмотреть результат – необходимо подождать от шести до десяти (в случае съемки «многослойного» фото) секунд, и лишь затем снимок станет доступен. Да, при обработке приложение камеры функционирует, можно продолжать фотографировать или даже писать видео, смартфон возится со снимками в фоновом режиме. Но при этом Nokia 9 PureView здорово греется и нещадно расходует батарею – увы, с оптимизацией и в этом отношении пока проблемы.
Я уже несколько раз упомянул «многослойные» снимки. Имеются в виду фотографии с искусственно размытым задним планом – однако в Nokia 9 PureView программное боке можно регулировать не только по интенсивности, но и по местоположению. По факту – менять точку фокусировки уже после того, как сделан снимок, PureView записывает до 1200 слоев на расстоянии до 40 метров от фотографа – ничего подобного не может предложить ни один современный смартфон. Работает эта функция в результате неплохо, но она требует еще больше вычислительных ресурсов смартфона – снимки обрабатываются еще дольше и быстрее сажают аккумулятор.
Второй режим, связанный с размытием фона, называется в приложении камеры «Вертикально» — у локализаторов в процессе работы что-то явно пошло не так. Это обычный режим программного размытия заднего плана, не регулируемого постфактум. Работает он очень качественно. Пример – выше.
В Nokia 9 PureView доступен зум, причем на нем даже сделан акцент в виде иконки на базовом экране съемки, но это не оптическая, а программная система. При двукратном приближении потери качества заметны, но не критичны, пользоваться им можно (хотя справляется с этой задачей PureView хуже Google Pixel 3, у которого, напомню, одна камера), а при пятикратном качество страдает уже очень сильно. Это самый рядовой цифровой кроп.
Приложение камеры оформлено типично для Nokia – с характерными особенностями вроде возможности одновременной съемки на основную и фронтальную камеру с объединением снимков в единое так называемое Bothie. В целом меню съемки вполне обычное: со своими приятными моментами — вроде возможности самостоятельно расставлять в нем режимы и приоритеты — и с неприятными — вроде очень небыстрой работы. Открывается камера примерно за секунду, а переключается между режимами дольше – одну-две секунды, но иногда приходится подождать и до пяти секунд, особенно при переключении в монохромный режим.
Общее впечатление от камеры Nokia 9 PureView буквально соткано из противоречий. С одной стороны: медленно работающее приложение, очень долгое время обработки снимков, сопряженное с сильным нагревом корпуса и высаживанием аккумулятора, вполне рядовой уровень ночных снимков и очень неровная работа с JPEG в плане как цветопередачи, так и контурной резкости. С другой стороны: действительно превосходный динамический диапазон, вероятно, лучший на рынке, очень пластичные RAW-файлы, из которых можно вытянуть при желании многое, отличный монохромный режим и рабочая система фокусировки постфактум. Камера Nokia 9 PureView хороша, но очень специфична.
*Пример видеосъемки на Nokia 9 PureView* *Пример концертной видеосъемки на Nokia 9 PureView*
Особенных талантов в видеосъемке у Nokia 9 PureView нет. Смартфон пишет 4К-видео с частотой до 30 кадров в секунду среднего качества. При понижении разрешения до Full HD доступна цифровая стабилизации невысокого уровня. Радует только качество записываемого звука – фирменная система OZO с задействованием трех микрофонов действительно работает здорово.
Фронтальная камера у Nokia 9 PureView самая обыкновенная – 20 мегапикселей, светосила
*ƒ*/2,0, нет ни вспышки, ни автофокуса. Есть возможность программного размытия фона (без хитрых фокусов на манер главной *паукокамеры*), скромный бьютификатор. Качество снимков при этом хорошее, можно получить приемлемые селфи даже при слабом освещении, фокус зафиксирован на корректном расстоянии, а оптические искажения невелики.
В Nokia 9 PureView установлен аккумулятор емкостью 12,62 Вт·ч (3320 мА·ч, 3,8 В). Для смартфона с шестидюймовым OLED-экраном вроде бы достаточно. Но не для смартфона с постоянно работающим и очень прожорливым сигнальным процессором разработки Light, а также с посредственной оптимизацией по всем направлениям. Время автономной работы – еще одно слабое место PureView, одно из очень многих. Смартфон при рядовом использовании выдерживает световой день, заряжать чаще его не надо. Но стоит его поднапрячь – много снимать на длительной прогулке, постоянно с кем-то переписываться или перезваниваться или непрерывно использовать как навигатор, и он сдастся за 7-8 часов. Это предельный срок автономности PureView при серьезной нагрузке, и то если его жалеть и активировать загодя экономный режим, способный сэкономить лишних полчаса.
В нашем традиционном тесте с воспроизведением HD-видео, на максимальной яркости, при включенных беспроводных модулях и активных обновлениях, Nokia 9 PureView продержался чуть менее 11 часов – неплохо, но для смартфона с экраном на органических светодиодах результат слабый.
Быстрая зарядка поддерживается с комплектным адаптером. Ну как быстрая – Quick Charge 3 с мощностью 18 Вт. Наполовину батарея заряжается примерно за полчаса, целиком – за 1 час 40 минут. В качестве порта используется USB Type-C (USB 3.1).
Когда тестируешь один современный смартфон за другим, начинает казаться, что сделать качественное устройство подобного типа не так уж сложно. Что это такой конструктор – собрать из готовых комплектующих, как из модулей, гаджет да накатить на него Android, причем лучше не заморачиваться с оболочкой – это все равно мало кто любит. Особенно на эти мысли наталкивал опыт возрожденной Nokia: очень простые по начинке и идеологии смартфоны в корпусе лаконичного, но породистого европейского дизайна. Разумно, скромно и даже скучно, но со вкусом – словно на улочки Хельсинки заглянул.
Nokia 9 PureView должен был стать на этой улице зданием Алвара Аалто – своеобразным нордическим символом, авангардной точкой притяжения, демонстрацией, что Nokia, может, уже и «не та», но еще способна на инновации. Но именно PureView показывает, что сделать качественный и гладко работающий смартфон в наше время очень непросто: вон сколько существует подводных камней, о которые ломаются ноги, стоит только что-то где-то упустить.
Сложно сказать, в чем именно корень бед «девятки». Вероятнее всего, этих корней несколько: прожорливый и неэффективный сигнальный процессор Light, слабая работа разработчиков софта HMD Global и недостаток времени. PureView выглядит в первую очередь сырым продуктом, имеющим все шансы стать намного лучше со временем. Если, конечно, это время действительно будет потрачено на заплатки и исправление многочисленных программных огрехов, ведущих к медленной и нестабильной работе устройства, слабой автономности и не очень удачной обработке фотографий в JPEG.
Но Nokia 9 PureView уже продается, и даже уже начинает продаваться со скидками – причем, чтобы смартфон можно было считать по-настоящему адекватной покупкой, эти скидки должны достигать 40-50 процентов. И все равно лучше сделать паузу и подождать работы над ошибками от Nokia – прямо сейчас этот смартфон способен здорово потрепать нервы даже преданному фанату марки. Но порадовать по-настоящему даже сегодня он может, пусть и совсем небольшую прослойку потенциальных пользователей. Я говорю о терпеливых людях, готовых всерьез и много возиться с RAW-файлами, полученными с телефона, а также о настоящих ценителях монохромной фотографии. У Nokia действительно получился особенный смартфон, который запомнится. Но, пожалуй, чересчур особенный и вышедший слишком сырым.
**Достоинства:** **Недостатки:** |
987,004 | Обзор игрового WQHD-монитора Viewsonic VX3258-2KC-mhd: достойный представитель сегмента | Крупных игровых мониторов в продаже встречается пока меньше, чем среди моделей с диагоналями поскромнее, однако тренды мониторостроения позволяют говорить о том, что в ближайшем будущем ситуация изменится. Производители матриц нащупали удачное сочетание характеристик, позволившее их партнёрам выпускать достойные по совокупности цены, возможностей и качества модели. Речь в первую очередь, конечно, идёт о дисплеях на *VA-панелях, которые ради улучшения стабильности картинки по всей площади экрана уже два года как делают изогнутыми.
Первой такой дисплей представила Samsung, располагающая собственными SVA-панелями. Позже, по максимуму сняв сливки, она стала снабжать матрицами подобного рода и другие компании, которые значительно увеличили количество предложений и серьёзно расширили ценовой диапазон, в котором были представлены новинки такого типа.
С тех пор прошло больше года. Людей, которые следят за индустрией, подобными дисплеями уже не удивить. Единственное, что поменялось за это время, — это цена на устройства, которая имеет явную тенденцию к снижению. Поскольку в остальном игровые 31,5-дюймовые WQHD *VA-решений очень похожи, то при выборе решающим фактором оказывается именно цена. И именно это делает взятый нами на тестирование Viewsonic VX3258-2KC-mhd очень интересным претендентом на покупку. Проверим это предположение.
Монитор VX3258-2KС-mhd был анонсирован вместе с Full HD-моделью VX2758-C-MH в январе 2018 года и официально поступил в продажу на территории Европы в конце февраля того же года. На рынке СНГ эту модель можно встретить почти год, а благодаря цене, начинающейся с 29 000 рублей (на момент написания обзора) решение стало очень популярным и конкурентоспособным среди других 15 похожих дисплеев.
|
Viewsonic VX3258-2KC-mhd
|
Экран
|
Диагональ, дюймов |31,5
|
Соотношение сторон |16:9
|
Покрытие матрицы |Полуматовое/матовое, антибликовое
|
Стандартное разрешение, пикс. |2560 × 1440
|
PPI |93
|
Параметры изображения
|
Тип матрицы |Curved 1800R *VA
|
Тип подсветки |QD-LED (?)
|
Макс. яркость, кд/м 2 |250
|
Контрастность статическая |3000 : 1
|
Количество отображаемых цветов |16,7 млн
|
Частота вертикальной развёртки, Гц |48-144 Гц
|
Время отклика BtW, мс |НД
|
Время отклика GtG, мс |5
|
Максимальные углы обзора по горизонтали/вертикали, ° |178/178
|
Разъёмы
|
Видеовходы |2 × DisplayPort 1.2;
2 × HDMI 2.0
|
Видеовыходы |Нет
|
Дополнительные порты |1 × Audio-Out (3,5 мм)
|
Встроенные колонки: число × мощность, Вт |2 × 2,5 Вт
|
Физические параметры
|
Регулировка положения экрана |Угол наклона (от -5 до +10 градусов)
|
VESA-крепление: размеры (мм) |Нет
|
Крепление для замка Kensington |Да
|
Блок питания |Внешний
|
Макс. потребляемая мощность в работе / в режиме ожидания, Вт |52 / 0,5
|
Габаритные размеры (с подставкой), Д × В × Г, мм |713 × 492 × 215
|
Габаритные размеры (без подставки), Д × В × Г, мм |713 × 420 × 80
|
Масса нетто (с подставкой), кг |5,8
|
Масса нетто (без подставки), кг |5,13
|
Ориентировочная цена |29 000-34 000 рублей
Точных сведений по используемой в Viewsonic VX3258-2KС-mhd
**LSM315DP01** производства компании Samsung.
Это изогнутая, с курватурой 1800R, SVA-матрица с диагональю 31,5 дюйма, разрешением 2560 × 1440 пикселей (стандарт WQHD) и соотношением сторон 16:9. В качестве системы подсветки, скорее всего, используется стандартная W-LED c дополнительным светорассеивающим слоем со специальным напылением («квантовые точки» или KSF-Phosphor). Благодаря этому 8-битная панель обладает расширенным цветовым охватом на уровне 85 % стандарта NTSC или DCI-P3.
Уровень максимальной яркости не высок – всего 250 кандел на квадратный метр, а коэффициент контрастности и углы обзора заявлены на стандартном для подобных панелей уровне в 3000:1 и 178 градусов соответственно. Подсветка обходится без мерцания во всем диапазоне изменения яркости (то есть Flicker-Free), что способствует снижению нагрузки на зрительный аппарат. Дополнительно снизить негативное влияние поможет настройка Blue Light Filter, уменьшающая синюю компоненту спектра подсветки.
Но куда более важными для дисплея подобного рода являются игровые характеристики. Модель может предложить матрицу со временем отклика 5 мс на переходах Gray-to-Gray, поддержку AMD FreeSync (теперь её можно активировать и на видеокартах NVIDIA) и функцию снижения инпут-лага. Правда, какой-либо технологии вставки чёрного кадра тут нет, а потому нет ничего удивительного и в отсутствии заявлений о «1 мс MPRT» в ТХ (ничего плохого мы в этом не видим).
Благодаря двум парам современных интерфейсов (по два HDMI 2.0 и DP 1.2) монитор Viewsonic не только сможет порадовать любителей использовать несколько подключённых устройств (правда, функции PbP/PiP почему-то не предусмотрены), но и предоставит возможность выжать все соки (144 Гц при нативном разрешении) при использовании любого из них.
Также в VX3258-2KС-mhd установлена простенькая стереосистема с двумя динамиками мощностью 2,5 Вт каждый. Для работы с периферией есть 3,5-мм аудиовыход, а вот о USB-портах остаётся только мечтать.
В мониторе предустановлено 8 режимов изображения, в том числе чёрно-белый Mono. Управление реализовано за счёт пятипозиционного джойстика, а эргономика крупного «безрамочного» экрана на тонкой ножке ограничена достаточно узким диапазоном регулировки степени наклона.
Монитор поставляется в крупной картонной коробке с минимумом полиграфии. Внешний вид упаковки стал ещё проще, чем был несколько лет назад, но идентичен тому, что мы встречаем у последних решений бренда.
На коробке указаны только основные технические особенности, габариты модели и комплект поставки. Сразу ясно, что перед нами 31,5-дюймовый QHD-дисплей (он же WQHD) со светодиодной подсветкой и изогнутым (Curved) экраном.
По стикеру, наклеенному на упаковку, можно узнать серийный номер, идентификатор модели, дату (28 июля 2018 года) и место производства (Китай).
Комплект поставки монитора включает в себя следующее:
Набор скромный, но позволяет раскрыть весь потенциал модели. Желающим же исключить лишние действия при настройке монитора следует обзавестись кабелем DisplayPort.
При создании монитора дизайнеры, похоже, исповедовали принцип минимализма во всём: поуже рамки (в результате чего монитор стал «безрамочным» с трёх сторон), попроще и потоньше подставка, поменьше притягивающих взгляд внешних элементов.
Модель получилась действительно простой, без каких-либо акцентов. Центральная стойка прикручивается двумя винтами к задней части корпуса в нижней трети, а VESA-крепление отсутствует, как и система прокладки кабелей.
Y-образная подставка оптимально подобрана по размеру к корпусу, не сильно увеличивает общую глубину (хотя можно было сделать и поменьше) и предоставляет монитору хорошую опору – он не качается и надёжно стоит на одном месте.
На основание подставки изначально наклеены две резиновые ножки, а третью (самую большую) пользователю будет необходимо приклеить с помощью двухсторонней ленты 3M после соединения подставки с центральной колонной.
Эргономика у модели слабая — она ограничена наклоном корпуса в диапазоне от -5 до +10 градусов.
Качество сборки и обработки пластиковых элементов монитора Viewsonic VX3258-2KС-mhd не вызывает вопросов. Покраска ровная, зазоры минимальные, а корпус практически не поддаётся скручиванию.
Если же говорить про практичность используемых материалов, то здесь вопросы есть. Вся задняя часть корпуса, как вы уже заметили, выполнена из чёрного глянцевого пластика, который моментально притягивает пыль и с той же скоростью покрывается крошечными царапинами после протирки специальной микрофиброй. А позже появляются потёртости, и внешний вид теряет свой первоначальный лоск, который больше не восстановить. Решение проблемы здесь одно – поставить монитор к стене, чтобы никто не видел его заднюю часть, и крайне аккуратно и редко протирать пыль безворсовыми салфетками (или чем-то ещё более подходящим... но мы не придумали чем).
Монитор оснащается *VA-type-матрицей с полуматовым рабочим покрытием, которая может похвастаться слабо различимым кристаллическим эффектом и достойными антибликовыми свойствами.
По одной из двух наклеек можно снова узнать дату производства конкретного экземпляра монитора. В остальном же значимая информация тут такая же, как и на коробке, — ничего нового мы не узнали.
Все разъёмы сосредоточены в задней части корпуса и для удобства подключения направлены назад. Поскольку эргономика у монитора слабая, а возможности использовать VESA-совместимый кронштейн нет, такой подход производителя можно считать оптимальным.
Два динамика встроенной акустической системы мощностью 2,5 Вт каждый расположились в задней части корпуса, по разным углам. Качество звука низкое, максимальная громкость невысока. Даже отдельная колонка из китайских онлайн-магазинов, купленная за 200-300 рублей, играет лучше и точно громче. Вероятно, сказывается тонкий корпус — более мощные и более качественные динамики в него не поставишь.
Система управления у VX3258-2KC-mhd построена на базе 5-позиционного джойстика, разместившегося в задней части корпуса, ближе к правому нижнему углу. На передней рамке находится отключаемый синий светодиод питания.
Переход от классических клавиш управления упростил задачу для пользователя, однако логика работы джойстика у монитора Viewsonic часто заставляет задавать себе один и тот же вопрос: ну как так-то? Ведь если у других мониторов с подобной системой управления всё интуитивно ясно и проблем не возникает с первых же минут, то у героя обзора надо постоянно смотреть на подсказки на экране. Иначе можно быстро выйти из себя.
Не считая этой особенности, других нареканий по поводу системы управления у нас не возникло. Все действия пользователя обрабатываются моментально, работать с джойстиком можно что днём, что ночью (в отсутствие внешнего освещения), а внешний вид и структура меню хорошо знакомы по другим последним моделям бренда: всё так же много пунктов, разбросанных иногда не самым понятным образом, но к этому просто надо привыкнуть.
Производитель предлагает быстрый доступ к следующим разделам: выбору источника сигнала, выбору предустановленных режимов, регулировке яркости и контрастности, а также регулировке уровня громкости.
В первом разделе представлен только выбор источника сигнала, без возможности включения автоматического поиска рабочего источника (это можно сделать в последнем разделе).
Изменить уровень громкости встроенной акустической системы или подключённых наушников можно в разделе Audio Adjust.
Все предустановленные пресеты изображения и их дополнительные настройки прячутся в третьем разделе, View Mode. У некоторых из них есть дополнительные подрежимы, у которых, в свою очередь, могут отсутствовать либо сильно различаться доступные параметры настройки. Среди последних мы встретили усиление различимости крайних тёмных оттенков (Black Stabilizer), точную настройку работы системы динамической контрастности (Advanced DCR), регулировку степени разгона матрицы (Response Time) и снижение инпут-лага (Low Input Lag).
Следующий раздел предлагает пройтись по настройкам яркости, контрастности и цветовой температуры (в зависимости от установки ранее выбранный режим при указании ЦТ может отключиться), задать цветовой формат и диапазон, а также гамму (выбрать точное значение из пяти доступных вариантов). Установка режима цветовой температуры sRGB блокирует большинство доступных параметров, связанных с цветом. Именно поэтому в ходе тестирования монитора мы выделили данный режим в полноценный пресет.
Часть пунктов в четвёртом разделе, Manual Image Adjust, доступна только при использовании аналогового подключения. А среди активных всегда мы можем выделить резкость, фильтр синей части спектра подсветки, управление скалером изображения, Overscan, а также четыре параметра, знакомые по разделу View Mode.
Последний раздел, Setup Menu, наполнен пунктами, имеющими непосредственное отношение к работе монитора, а не к его цветопередаче. Тут можно выбрать язык локализации меню (есть и русский), переназначить одну функцию быстрого доступа, посмотреть основную рабочую информацию по монитору, изменить настройки OSD-экрана, выключить индикатор питания, снизить энергопотребление с помощью функций Sleep, Auto Power Off и Eco Mode (снижает максимальную яркость), включить DP версии 1.1 (не понятно, правда, для чего) и сбросить все параметры к заводским установкам.
Доступ к сервисному меню найден не был.
Монитор Viewsonic VX3258-2KC-mhd был протестирован по обновлённой методике при помощи колориметра X-Rite i1 Display Pro в сочетании с референсным спектрофотометром X-Rite i1 Pro, программного комплекса Argyll CMS c графическим интерфейсом dispcalGUI и программой HCFR Colormeter. Все операции осуществлялись в Windows 10, во время тестирования частота обновления экрана составляла 144 Гц.
В соответствии с методикой мы измерим следующие параметры монитора:
Все описанные выше измерения проводились до и после калибровки. Во время тестов мы измеряем основные профили монитора: выставленный по умолчанию, sRGB (если доступен) и Adobe RGB (если доступен). Калибровка проводится в профиле, выставленном по умолчанию, за исключением особых случаев, о которых будет сказано дополнительно. Для мониторов с расширенным цветовым охватом мы выбираем режим аппаратной эмуляции sRGB, если он доступен. Перед началом всех тестов монитор прогревается в течение 3-4 часов, а все его настройки сбрасываются до заводских.
Также мы продолжим нашу старую практику публикации профилей калибровки для протестированных нами мониторов в конце статьи. При этом тестовая лаборатория 3DNews предупреждает, что такой профиль не сможет на 100% исправить недостатки конкретно вашего монитора. Дело в том, что все мониторы (даже в рамках одной модели) обязательно будут отличаться друг от друга небольшими погрешностями цветопередачи. Изготовить две одинаковые матрицы невозможно физически, поэтому для любой серьёзной калибровки монитора необходим колориметр или спектрофотометр. Но и «универсальный» профиль, созданный для конкретного экземпляра, в целом может поправить ситуацию и у других устройств той же модели, особенно в случае дешёвых дисплеев с ярко выраженными дефектами цветопередачи.
В мониторе Viewsonic производитель предусмотрел восемь основных режимов. При тестировании дисплея мы использовали интерфейс DisplayPort 1.2 как наиболее беспроблемный и полностью раскрывающий возможности модели.
По умолчанию настройки основных параметров выглядят следующим образом:
В ходе ручной настройки (100 кд/м
2 и 6500 кельвин) они приняли следующий вид:
Значение параметра «контрастность» не изменялось из-за отсутствия положительного влияния на гамма-кривые. Основные изменения произошли после снижения яркости подсветки и правок значений RGB в настройках цветовой температуры. Все второстепенные параметры остались при настройках по умолчанию.
⇡#Яркость белого
**, **яркость чёрного **, **коэффициент контрастности
Проверка осуществлялась в режиме Standard при настройках по умолчанию.
|
Яркость в меню (%) |
Яркость белого (кд/м 2) |
Яркость чёрного (кд/м 2) |
Статическая контрастность (x:1)
|
100 |
305 |
0,108 |
2824
|
90 |
275 |
0,097 |
2835
|
80 |
254 |
0,09 |
2822
|
70 |
233 |
0,082 |
2841
|
60 |
210 |
0,074 |
2838
|
50 |
190 |
0,067 |
2836
|
40 |
167 |
0,059 |
2831
|
30 |
145 |
0,051 |
2843
|
20 |
122 |
0,043 |
2837
|
10 |
102 |
0,036 |
2833
|
0 |
81 |
0,029 |
2793
Максимальная яркость оказалась на уровне 305 кд/м
2, то есть она превышает заявленную производителем в ТХ, а нижнее значение составило 81 кд/м 2. Полученный рабочий диапазон яркости устроит большинство потребителей. Тем же, кому цифра минимальной яркости окажется высокой (таких будет не очень много), мы можем посоветовать снизить значение параметра «Контраст». Чёрный не станет от этого ярче, а вот точка белого снизит степень светимости.
В свою очередь, измеренный коэффициент контрастности держится на уровне ~2830:1 в среднем, что несколько ниже заявленных производителем 3000:1. Это не проблема — вполне типичная ситуация для *VA-моделей, трудностей при работе с дисплеем она не создает.
⇡#Результаты при стандартных настройках
В описании монитора производитель не скрывает, что у модели расширен цветовой охват — до уровня в 85 % NTSC (один из стандартов цветного аналогового телевидения) против часто встречающихся 70-72 % в мониторах с более простой системой подсветки. Впрочем, для многих эти значения ни о чем особенно не говорят, поскольку все привыкли к более распространённой оценке в процентах соответствия стандартам sRGB, DCI-P3 или AdobeRGB.
В данном случае цветовое пространство, очевидно, расширено не для профессиональной работы с цветом (особенности *VA-матрицы всё равно делают эти дисплеи не очень подходящими под эти цели), а для того, чтобы цвета выглядели более насыщенными. Игрокам и всем любителям сочной и яркой картинки должно понравиться.
Тем же, кто не согласен с решением компании увеличить возможности цветовоспроизведения своих новых матриц, не остаётся ничего, кроме как использовать ICM/ICC-профили и ПО с поддержкой системы управления цветом (CMS) для избавления от оттенков, выходящих за пределы треугольника sRGB.
При заводских настройках цветовой охват монитора соответствует sRGB на 98,3 %, AdobeRGB на 82,5 % и DCI-P3 на 85,7 %. Площадь фигуры – более 125 % от sRGB-стандарта, что чётко повторяет возможности современных SVA-дисплеев с подсветкой на базе «квантовых точек». Впрочем, цветовой треугольник превосходит оба стандарта в области с красными и зелёными оттенками, что может приводить к излишне насыщенным телесным оттенкам и неправдоподобному цвету травы — самые простые примеры легко заметных человеческому глазу отклонений. Так что про профиль и CMS лучше не забывать.
Точка белого настроена на уровне ниже среднего, а вот стабильность ЦТ оттенков серого приятно удивляет – она близка к идеальной.
По полученным гамма-кривым можно говорить о том, что картинке на экране слегка не хватает контрастности. Разбалансировка каналов минимальная, но различимость крайних тёмных оттенков излишняя.
В тесте Argyll CMS монитор показал результат ниже среднего, а виновниками этого стали нестандартный цветовой охват модели и проблемы на сером клине.
⇡#Результаты после ручной настройки и калибровки
Чтобы привести монитор к иному состоянию, после снижения яркости нам потребовалось внести изменения в значения RGB Gain, чтобы точка белого оказалась поближе к референсу в 6500 К. Все остальные необходимые изменения будут сделаны с помощью внесения правок в LUT видеокарты в ходе калибровки.
После таких манипуляций цветовое соответствие стандартам увеличилось, как и общий объём цветовых данных. Изменения незначительны, но они есть.
Точка белого пришла в норму, стабильность ЦТ оттенков изменилась, но общий результат сохранился на изначальном уровне.
Гамма-кривые максимально точно легли на референсную линию, различимость крайних тёмных оттенков стала адекватной, но Black Crush-эффект при небольшом изменении угла просмотра и по углам панели никуда не делся.
Внесённые правки и созданный профиль позволили в разы улучшить результат в тесте Argyll CMS на точность цветопередачи, но исключительно из-за того, что система узнала о реальных возможностях изучаемого дисплея. Если софт, с которым вы работаете, не дружен с системами управления цветом, то польза от применённого профиля будет исключительно в правках гамма-кривых и увеличении визуального контраста картинки.
В изучаемом мониторе производитель спрятал режим sRGB в настройки цветовой температуры, как это обычно и бывает у мониторов Viewsonic. После его активации пропадает возможность менять многие параметры, отвечающие за цвет на экране, а яркость подсветки снижается до 25 %. К счастью, ничто не мешает изменить данное значение на более подходящее под те или иные условия внешнего освещения.
Увы, цветовой охват в этом режиме не уменьшается, а наоборот – увеличивается. Cитуация та же, что и с некоторыми другими мониторами Viewsonic. Логика производителя в этом случае нам не понятна. Куда уж больше, если речь идёт об sRGB?
Зато в sRGB Mode вдвое улучшается точность установки значения точки белого, однако стабильность ЦТ оттенков серого всё же несколько ниже, чем при настройках по умолчанию.
На гамма-кривых разница незначительная — проблемы всё те же, что и в режиме Standard. Минимальную разницу можно заметить только в воспроизведении глубоких теней.
Что же касается отклонений цветопередачи, то из-за ещё более расширенного цветового охвата цифры увеличились до 3,16 единицы DeltaE94 в среднем и 8,74 в максимуме. Результат низкий — и он подтверждает, что смысла в данном режиме нет.
Равномерность подсветки дисплея проверялась после снижения яркости в центральной точке монитора до уровня 100 кд/м
2 и цветовой температуры в ~6500 кельвин. Система компенсации неравномерности подсветки в изучаемой модели не применяется.
Картинка выше демонстрирует фотографию белого поля при определённой экспопоправке в ходе съёмки и после программной обработки для более наглядного представления равномерности подсветки.
На белом поле равномерность подсветки находится на среднем уровне. После перехода к оттенкам серого ситуация усугубляется — становятся видны все проблемы неравномерности поля.
Среднее отклонение от центральной точки составило 9,3 %, максимальное 22,5 %. Результат для такой диагонали ниже среднего, но если учесть позиционирование и стоимость устройства, то особых претензий здесь быть не может. У нашего экземпляра затемнены два небольших участка панели и все четыре угла, а вот центральная часть довольно стабильна.
С равномерностью цветовой температуры дела обстоят на том же уровне – ниже среднего. Среднее отклонение в нашем случае составило 2 %, максимальное 6 %, разница между минимумом и максимумом превысила значение в 600 кельвин. Цветовая температура растёт по диагонали, с одним резким перепадом в области нижнего левого угла. На отдалении от экрана это хорошо заметно, но если работать за монитором на обычном расстоянии в 60-80 см, то проблем возникнуть не должно.
Диаграмма отклонений, выраженных в единицах DeltaE, дала нам несколько иную картину. Наибольшие отклонения находятся в верхней области экрана и в двух нижних углах. Среднее отклонение установилось на отметке в 3 единицы DeltaE, а максимальное достигло 7,5.
Теперь посмотрим на равномерность подсветки и различные цветовые эффекты в случае с чёрным полем. Оценивать их мы будем по двум фотографиям, снятым на разном удалении от экрана (~70 и 150 см).
Несмотря на ходящие в Интернете рассказы про хорошую равномерность подсветки у *VA-дисплеев, отсутствие Glow и прочие достоинства, рассмотренный монитор Viewsonic, к сожалению, не cмог все это подтвердить (собственно, как и проверенные автором его конкуренты). Изученный экземпляр «порадовал» нас тремя пятнами по краям экрана, различными паразитными оттенками и высветлением чёрного поля по краям панели.
При отдалении от экрана Glow полностью исчезает, но неравномерность подсветки остаётся вместе с проявившейся неоднородностью, что является одной из особенностей многих современных *VA-панелей. Показать последнюю на фото достаточно сложно, но что смогли, то сделали.
⇡#Визуальная оценка изображения и особенности модели
⇡#Качество градиентов и скорость отклика
В мониторе применяется 8-битная матрица (скорее всего, без использования FRC), позволившая, несмотря на диагональ экрана, продемонстрировать качественные, плавные градиенты как при стандартных установках, так и после ручных изменений.
В свою очередь, хорошая заводская настройка спасла модель от сильных правок в LUT видеокарты в ходе калибровки, что положительно сказалось на градиентах – появилось лишь несколько полос со слабо различимыми паразитными оттенками.
Впрочем, от такого эффекта, как «бандинг», монитор всё это не спасает. Большая часть современных *VA-моделей демонстрирует нечто подобное на тяжелых тёмных переходах, и модель VX3258-2KC-mhd не является исключением.
С точки зрения скорости панели представленный монитор является середнячком среди быстрых игровых *VA-дисплеев. Максимальный эффект (увеличенную плавность) предлагает именно повышенная частота вертикальной развёртки – переход от монитора с 60-75 Гц к 144-Гц Viewsonic будет хорошо ощутим.
По умолчанию степень разгона OD (Overdrive) установлена в положение Standard. Визуально различимые артефакты отсутствуют. При этом чем темнее оттенки серого, тем ниже скорость перехода кристалла из одного положения в другое (видно по картинке выше), что является нормой для *VA-дисплеев.
Установка режима Advanced не приводит к видимым изменениям, как и перевод в последнее положение, Ultra Fast. Другими словами, дополнительные режимы разгона у монитора не работают — с таким мы сталкиваемся впервые. При настройке дисплея следует учитывать эту особенность.
Дополнительно, чтобы убедиться в том, что обещанные 144 Гц действительно можно получить и что они стабильны, мы провели тест на пропуск кадров с помощью одного из тестов портала TestUFO. Исходя из полученного результата, мы можем сделать следующий вывод: пропуск кадров отсутствует, производитель не обманул.
Использование *VA-матрицы со столь большой диагональю отрицательным образом сказалось на углах обзора модели, однако панель тут изогнутая, и это позволяет добиться некоторых улучшений в сравнении с плоскими экземплярами.
Тех, кто привык работать за хорошими и небольшими TN+Film-моделями и средними по качеству *VA-мониторами, углы обзора и стабильность картинки на мониторе Viewsonic полностью устроят, а вот тех, кто привык к IPS, – скорее разочаруют.
При изменении угла просмотра яркость картинки снижается слабо, но возникает явный цветовой сдвиг (проявляется розово-фиолетовый отлив – сказывается нестандартная подсветка матрицы с расширенным спектром), особенно на светлых участках. Теряется контрастность и насыщенность изображения. Если привстать над монитором, то яркость изображения в нижней части экрана, наоборот, быстро возрастает, снижается различимость крайних светлых оттенков, меняется цветовая температура.
Максимальное же воздействие приходится на крайние тёмные оттенки, которые относительно быстро высветляются, – тот самый Black Crush-эффект, или, если говорить простым языком, более сильный цветовой сдвиг, чем у IPS/PLS/AHVA-решений.
Тем же, кто вспоминает о неразличимости тёмных оттенков у старых *VA, можем сказать следующее: производители давно победили эту проблему правильной заводской настройкой, а там, где она не проведена, всё исправляется дополнительной ручной настройкой и калибровкой с установкой тоновой кривой sRGB. Но надо сразу понимать, что от проблем при работе с цветом за подобными мониторами этот факт не избавляет. Вы не можете постоянно сидеть в одном положении, держа голову ровно, поэтому особенности *VA-монитора могут часто давать о себе знать — стоит быть к этому готовым.
Как и на других подобных мониторах, нас неприятно удивил достаточно сильный Glow-эффект с различными паразитными оттенками на сплошном чёрном поле. Кроме того, как было отмечено ранее, становится видна вся неоднородность рабочего поля, что огорчает ещё сильнее. Снизить заметность эффекта можно, только если убавить яркость подсветки, но избавиться от него полностью не выйдет.
Демонстрирует себя Glow-эффект и на цветных изображениях, пусть в меньшей степени, но с довольно частой и резкой постеризацией на сложных цветовых переходах – как продемонстрировано выше.
⇡#Кристаллический эффект
**, **Cross-hatching **, **ШИМ
В изучаемом мониторе используется матрица с полуматовой поверхностью.
При обычных условиях работы различимость кристаллического эффекта на экране монитора сведена к минимуму, а при изменении угла просмотра (взгляде сверху или снизу) он полностью исчезает. Антибликовые свойства у поверхности сохранены на достаточно высоком уровне. Эффект Cross Hatching изучаемой модели монитора не свойственен.
Из-за особенностей структуры пикселей/субпикселей и межпиксельной решётки качество проработки шрифтов и мелких элементов для некоторой части пользователей может оказаться неудовлетворительным, но для используемой матрицы это обычное явление. Попытаться сделать лучше можно регулировкой резкости, но получить на выходе результат как на IPS-дисплеях в любом случае не выйдет.
По заявлению производителя, дисплей обладает Flicker-Free-подсветкой, что и было подтверждено в ходе наших тестов. При любом уровне яркости ШИ-модуляция не используется либо её частота составляет несколько килогерц или даже десятки килогерц. За свои глаза пользователи могут быть спокойны. Осталось не забывать о необходимости делать перерывы в работе и не выставлять слишком высокую яркость при низкой или средней внешней освещённости.
Протестированный нами монитор Viewsonic VX3258-2KC-mhd является типичным представителем своего класса и обладает набором самых важных для игрового *VA-дисплея способностей. В нём вы не найдёте излишков (за исключением, пожалуй, аж целых четырёх портов в отсутствие PiP/PbP), а также технологий и «особенностей», на которых другие производители любят делать лёгкие деньги. Доступность при сохранении хорошего качества – вот главный принцип, по которому был спроектирован герой обзора.
VX3258-2KC-mhd свойственны все достоинства и недостатки мониторов с изогнутой *VA-матрицей с расширенным цветовым охватом. Производитель не наступил на грабли плохой заводской настройки, но обошёл стороной режим качественной эмуляции пространства sRGB (в нём у Viewsonic почему-то цветовой охват только увеличивается) и оставил в меню неработающие режимы Overdrive. Как итог – получился монитор ровно на свои деньги, которые он отрабатывает сполна. Удачи в выборе!
*С файлового сервера 3DNews.ru можно скачать цветовой профиль для этого монитора, который мы получили после процедуры калибровки.* **Достоинства** **:** **Недостатки:** **Может не устроить** **:** |
987,007 | Gamesblender №411: Valve пришла в VR, Epic купила Rocket League, а Bloodstained намечена на июнь | С вами GamesBlender, еженедельный видеодайджест новостей игровой индустрии от 3DNews.ru. В сегодняшнем выпуске: неприятные слухи про третью Borderlands... развеиваются; в Rage 2 практически не будет сюжета; еще немного тумана от Кодзимы. А также другие новости и события игровой индустрии |
987,011 | Обзор и тестирование кулера Aardwolf Performa 10X: доступная эффективность | Китайский бренд Aardwolf заимствовал своё имя у земляного волка, известного своей способностью адаптироваться к сложным климатическим условиям и выживать в них. По всей видимости, проводя аналогии именно с этой способностью, компания как бы говорит, что её продукция должна быть максимально конкурентоспособной во всех сферах. Особо широко у Aardwolf представлен ассортимент процессорных кулеров – сейчас в нём одиннадцать моделей разных типов, размеров и стоимости. Из всех моделей «на пробу» мы выбрали Aardwolf Performa 10X (APF-10XPFM-120), предназначенную практически для любых современных процессоров.
Кулер выделяется не только довольно привлекательными характеристиками и неординарным дизайном (хотя сходство с Zalman, думаю, очевидно), но и довольно низкой стоимостью, не превышающей двух тысяч рублей. Кроме того, у данной модели неожиданно не оказалось подсветки, что совершенно не в тренде последних тенденций компьютерных комплектующих. Ну что же, будем надеяться, что производители сконцентрировали свои усилия на более важных областях – эффективности охлаждения и уровне шума.
⇡#Технические характеристики и стоимость
|
Наименование технических характеристик |
Aardwolf Performa 10X
(APF-10XPFM-120)
|
Размеры кулера (В × Ш × Т), вентилятора, мм |149 × 131 × 97
|(120 × 120 × 25)
|
Полная масса, г |743
(594 – радиатор)
|
Материал радиатора и конструкция |Башенная конструкция из алюминиевых пластин на 5 медных тепловых трубках диаметром 6 мм, проходящих сквозь медное основание
|
Количество пластин радиатора, шт. |46
|
Толщина пластин радиатора, мм |0,40
|
Межрёберное расстояние, мм |2,0
|
Расчётная площадь радиатора, см 2 |6 844
|
Термическое сопротивление, °С/W |н/д
|
Тип и модель вентилятора |Aardwolf AF12025H12M-2433
|
Диаметр крыльчатки/статора, мм |101 / 43
|
Скорость вращения вентилятора, об/мин |1000–2000 (±10 %)
|
Воздушный поток, CFM |45
|
Уровень шума, дБА |16,0–35,0
|
Статическое давление, мм H 2O |3,91
|
Количество и тип подшипников вентилятора |1, качения
|
Время наработки вентилятора на отказ, часов/лет |н/д
|
Номинальное/стартовое напряжение вентилятора, В |12 / 3,5
|
Сила тока вентилятора, А |0,28
|
Заявленное/измеренное энергопотребление вентилятора, Вт |3,36 / 1,92
|
Возможность установки на процессоры с разъёмами |Intel LGA775/115x/1366/2011(v3)/2066
AMD Socket AM2(+)/AM3(+)/AM4/FM1/FM2(+)
|
Максимальный уровень TDP процессора, Вт |180
|
Дополнительно (особенности) |Возможность установки дополнительного вентилятора, термопаста Aardwolf AF-TG2 1,5 г
|
Гарантийный срок, лет |1
|
Розничная стоимость, руб. |
2 000
Оформление упаковки Aardwolf Performa 10X – яркое и солнечное. Картонная коробка желтого цвета бросается в глаза и заставляет обращать на себя внимание, да и фото кулера на её лицевой стороне выглядит акцентированным и чётким.
Удобно, что, глядя на коробку, можно узнать всю необходимую информацию о кулере. Здесь и краткое описание использованных в нём технологий, и перечисление ключевых особенностей, и подробные технические характеристики, и, наконец, длинный перечень поддерживаемых процессорных разъёмов.
На дне коробки приведена информация о производителе и стране производства, а также штрихкод с серийным номером.
Внутрь картонной коробки вставлена дополнительная оболочка из прозрачного пластика. Она отлита строго по форме кулера, поэтому надёжно фиксирует радиатор с вентилятором внутри.
В отдельном пакете запечатаны аксессуары. Набор вполне типичен для процессорного кулера и включает в себя универсальную усилительную пластину на обратную сторону материнской платы, две пары стальных направляющих, комплект винтов, втулок и шайб с гайками, инструкцию по установке и четыре проволочные скобки для закрепления двух вентиляторов.
Входит в комплект и термопаста серого цвета массой 1,5 грамма, которая называется Aardwolf AF-TG2 и имеет заявленную теплопроводность 4 Вт/(м·К), а также термическое сопротивление 0,185 °C-in²/Вт. Объёма шприца должно хватить на 3-4 смены процессора, если, конечно, не усердствовать с количеством термопасты.
Добавим, что кулер выпускается в Китае и обеспечивается однолетней гарантией. Как мы уже упоминали выше, приобрести его в России можно за две тысячи рублей.
Aardwolf Performa 10X – характерный представитель кулеров башенного типа. Он оснащён алюминиевым радиатором на тепловых трубках, но пластины радиатора имеют оригинальную форму, чем-то напоминая крылья бабочки. Из-за этого кулер выглядит оригинально и притягательно.
Вторит радиатору и вентилятор, имеющий чёрную рамку с прорезями и петлями для крепления, а также матовую крыльчатку с насечками на лопастях. В целом дизайн интересный, но без перехода границы, за которой начинается вычурность.
Высота кулера не превышает 149 мм, что делает его совместимым с большинством корпусов системных блоков, даже считающихся узкими. Ширина составляет 131 мм, а толщина с одним вентилятором – 97 мм.
Aardwolf Performa 10X сравнительно лёгкий кулер – всего 743 грамма, из которых 594 приходятся на радиатор.
Всего в радиаторе кулера 46 алюминиевых пластин толщиной 0,40 мм каждая. Пластины напрессованы на тепловые трубки с расстоянием 2,0 мм (радиатор средней плотности), никакой пайки в местах их контакта нет.
Боковые стороны радиатора ничем не закрыты, то есть воздух выбрасывается, как вперёд, так и по боковым сторонам.
Форма пластин имеет настолько оригинальный профиль, что назвать их точные размеры не представляется возможным. Скажем так – максимальная ширина пластин равна 130 мм, а минимальная – 115 мм. В свою очередь, максимальная глубина пластин составляет 65 мм, а минимальная – 51 мм. Заявленная в характеристиках площадь радиатора равна 6844 см
2, что для однобашенной конструкции является очень неплохим показателем. Для примера скажем, что у нового Noctua NH-U12A, который стоит более чем втрое дороже героя сегодняшнего обзора, площадь радиатора составляет 6860 см 2, а у Scythe Kotetsu – около 5000 см 2.
С обеих широких сторон радиатор имеет явные оптимизации для воздушного потока. Причём, у Aardwolf Performa 10X перепады торцов рёбер настолько разноплановые и глубокие, что можно вообще засомневаться: а не маркетинг ли это, нежели инженерная мысль?
Но всё же давайте будем оптимистами, тем более что это не единственные оптимизации, которые есть в радиаторе Aardwolf Performa 10X. Во вторую очередь мы назовём специальные прорези в каждой пластине в количестве 12 штук, названные производителем MLS (Multi-Layer Slit). Они предназначены для задания воздушному потоку внутри радиатора дополнительной турбулентности и повышения эффективности теплообмена.
Тепловых трубок в радиаторе пять. Все они имеют диаметр 6 мм и расставлены по пластинам в шахматном порядке.
За счёт этого достигается более равномерное распределение теплового потока по рёбрам радиатора. Хотя пайки в местах их контакта нет, опрессовка выполнена по всему диаметру каждой тепловой трубки.
А вот в медном основании радиатора контакт с тепловыми трубками обеспечен пайкой. Контактная поверхность имеет размеры 48 × 35 мм, но обработана довольно посредственно – следы шлифовки не только видны невооружённым глазом, но и ощущаются тактильно.
При этом к её ровности у нас нет никаких претензий, контакт с выпуклым теплораспределителем процессора конструктивного исполнения LGA2066 получился полноценным.
Кулер оснащается одним 120-мм вентилятором Aardwolf AF12025H12M-2433. Вентилятор выделяется довольно толстой рамкой и крыльчаткой диаметром всего 101 мм против типичных для данного размера 109-111 мм. Объясняется это тем, что конструктивно такие же вентиляторы могут быть оснащены подсветкой, которая как раз и встроена в толстое кольцо по периметру рамки.
Но здесь у нас подсветки нет, поэтому потери в диаметре крыльчатки вряд ли можно как-то оправдать. Добавим, что каждая из семи лопастей крыльчатки имеет насечки («акульи плавники») на внешней поверхности лопасти, которые должны структурировать воздушный поток и повысить эффективность обдува.
Скорость вращения крыльчатки регулируется широтно-импульсной модуляцией (PWM) в диапазоне от 1000 до 2000 об/мин с погрешностью 10%. Воздушный поток вентилятора заявлен на отметке 45 CFM, что весьма скромно для такого типоразмера и скорости 2000 об/мин. Например, на точно такой же скорости для 120-мм вентилятора Noctua NF-A12x25 заявлены 60,1 CFM, что на 33,6%(!) выше. Добавим, что развиваемое вентилятором Aardwolf статическое давление может достигать 3,91 мм H
**O, а уровень шума должен изменяться в пределах 16-35 дБА. 2**
Диаметр статора вентилятора равен 43 мм. Подшипник и электромотор закрыты плёночной наклейкой с указанием маркировки вентилятора и его электрических характеристик. При заявленных 0,28 А и 3,36 Вт на максимальной скорости вентилятор потреблял всего 1,92 Вт и мог стартовать при низком напряжении 3,5 В.
Что касается типа его подшипника, то заявлен шарикоподшипник с неизвестным сроком службы. В характеристиках указано просто – «Long Life Bearing», то есть никакой конкретики, а поиск по маркировке результатов не дал. Но что-то нам подсказывает, что это обычная втулка.
Для закрепления вентилятора на радиаторе используются проволочные скобы. Их в комплекте две пары, чтобы пользователь смог добавить на радиатор второй вентилятор.
Виброразвязка реализована силиконовыми вставками в уголках рамки вентилятора, но они касаются пластин радиатора лишь самым краем и вряд ли могут помочь в деле снижения уровня шума. Впрочем, в процессе тестирования и измерения уровня шума мы не зафиксировали каких-либо вибраций вентилятора во всём его скоростном режиме работы.
Aardwolf Performa 10X не совместим только с процессорами AMD конструктивного исполнения Socket TR4. Все остальные современные (и не очень) платформы кулером всецело поддерживаются. Для его сборки и установки производитель подготовил подробную инструкцию (формат PDF, 2.31 Мбайт), содержащую раздел на русском языке. Мы устанавливали кулер на нашу тестовую платформу с LGA2066.
Первым этапом установки является закрепление шпилек с резьбой в опорной пластине сокета материнской платы. Здесь не потребуется никаких инструментов, всё затягивается руками.
Далее на эти шпильки монтируются две стальные направляющие с отверстиями под прижимные винты. Здесь уже потребуется отвёртка.
Завершающий этап закрепления радиатора на процессоре (вентилятор нужно заблаговременно снять) — прижать его двумя винтами с накатанной головкой и отвёрткой.
Здесь необходимо отметить, что не стоит затягивать винты до упора, поскольку пластины ну очень уж жёсткие, пожалуй, даже самые жесткие из всех креплений, которые мне довелось видеть. Главное — обеспечить равномерность прижима, а усилия там более чем достаточно.
Расстояние от материнской платы до нижней пластины радиатора установленного на процессор Aardwolf Performa 10X не превышает 40 мм, а его вентилятор при точной установке на радиатор висит ниже ещё на 5-6 мм, поэтому он может создать проблемы высоким модулям оперативной памяти в ближайшем к процессорному разъёму слоте.
Зато Aardwolf Performa 10X совместим с любыми корпусами системных блоков (не считая HTPC-версий, конечно), поскольку его высота на процессоре составляет всего 153-154 мм.
Подсветки нет, но и без неё, благодаря радиатору оригинальной формы и необычному вентилятору, кулер выглядит вполне привлекательно. Но ведь это для него не главное, правда? О главном мы расскажем уже совсем скоро, сразу после раздела с конфигурацией и методикой тестирования.
⇡#
**Тестовая конфигурация, инструментарий и методика тестирования**
Оценка эффективности кулера Aardwolf Performa 10X и его конкурентов была проведена в закрытом корпусе системного блока следующей конфигурации:
Для оценки эффективности систем охлаждения частоту процессора на BCLK, равной 100 МГц, при фиксированном в значении
**41** множителе и первом уровне стабилизации Load-Line Calibration мы установили на отметке **4,1** ** ГГц** с напряжением в BIOS материнской платы **1,012 В**.
Напряжение VCCIO было выставлено на 1,100 В, а VCCSA – на 1,075 В. В свою очередь, напряжение модулей оперативной памяти фиксировалось на отметке 1,35 В, а её частота составляла 3,2 ГГц с таймингами 16-18-18-39 CR2. Кроме перечисленного, в BIOS материнской платы были внесены ещё несколько изменений, относящихся к разгону процессора и оперативной памяти.
Тестирование было проведено в операционной системе Microsoft Windows 10 Pro версии 1809 (17763.437). Программное обеспечение, использованное для теста:
Полный снимок экрана во время проведения одного из циклов тестирования выглядит следующим образом.
Нагрузка на процессор создавалась двумя последовательными циклами Prime95. На стабилизацию температуры процессора между циклами отводилось по 10–12 минут. За окончательный результат, который вы увидите на диаграмме, принята максимальная температура наиболее горячего из десяти ядер центрального процессора в пике нагрузки и в режиме простоя. Кроме этого, в отдельной таблице будут приведены температуры всех ядер процессора, их усреднённые значения и дельта температур между ядрами. Температура в помещении контролировалась установленным рядом с системным блоком электронным термометром с точностью измерений 0,1 °C и с возможностью почасового мониторинга изменения температуры в помещении за последние 6 часов. Во время данного тестирования температура колебалась в диапазоне
**24,9–25,1** °C.
Измерение уровня шума систем охлаждения проводилось электронным шумомером «ОКТАВА-110А» в период от ноля до трёх часов ночи в полностью закрытой комнате площадью около 20 м
2 со стеклопакетами. Уровень шума измерялся вне корпуса системного блока, когда источником шума в комнате являлся только сам кулер и его вентилятор. Шумомер, зафиксированный на штативе, всегда располагался строго в одной точке на расстоянии ровно 150 мм от ротора вентилятора. Системы охлаждения размещались на самом углу стола на пенополиуретановой подложке. Нижняя граница измерений шумомера составляет 22,0 дБА, а субъективно комфортный (просьба не путать с низким!) уровень шума кулеров при измерениях с такого расстояния находится около отметки 36 дБА. За условно низкий уровень шума мы принимаем значение 33 дБА.
Исходя из стоимости и позиционирования Aardwolf Performa 10X, его эффективность и уровень шума мы сегодня сравним с показателями кулера Scythe Kotetsu ($40) в штатной комплектации с одним 120-мм вентилятором.
Регулировка скорости вращения вентиляторов систем охлаждения производилась с помощью специального контроллера с точностью ±10 об/мин в диапазоне от 800 об/мин до их максимума с шагом 200 или 400 об/мин.
Кроме того, в сегодняшней статье в качестве эталона эффективности воздушного охлаждения дополнительно был протестирован хорошо известный вам Phanteks PH-TC14PЕ ($75) с двумя 140-мм вентиляторами Corsair AF140.
Данный кулер протестирован с вентиляторами в ШИМ-режиме в диапазоне от 770 до 1090 об/мин и включён вне конкурса.
⇡#
**Результаты тестирования и их анализ**
Результаты тестирования эффективности систем охлаждения при разгоне процессора до 4,1 ГГц представлены на диаграмме и в таблице.
На максимальных (1890 об/мин) и средних (1600 об/мин) скоростях вентилятора Aardwolf Performa 10X выглядит очень неплохо, выигрывая у Scythe Kotetsu от двух до шести градусов Цельсия в пике нагрузки (справедливости ради стоит упомянуть, что у Kotetsu вентилятор не разгоняется выше 1380 об/мин). При снижении скорости вентилятора до 1400 об/мин герой сегодняшнего тестирования уже начинает уступать Kotetsu с его вентилятором на 1380 об/мин два градуса Цельсия, на 1200 об/мин – те же два градуса Цельсия, а при 1000 об/мин отставание увеличивается до пяти градусов Цельсия. Более того, если при 800 об/мин Kotetsu ещё держится, то Performa 10X уже не справляется с такой нагрузкой.
Причина, на наш взгляд, кроется в слабом вентиляторе Aardwolf, причём слабом не в плане оборотов, а в плане диаметра крыльчатки. Поскольку она меньше на 8-10 мм, чем крыльчатка обычных 120-мм вентиляторов, воздушный поток при снижении оборотов «режется» кардинально. Для проверки этого утверждения мы провели дополнительные тесты Performa 10X со 120-мм вентилятором Scythe от кулера Kotetsu и убедились, что с альтернативным вентилятором такого значительного снижения эффективности в скоростном диапазоне 800-1200 об/мин уже нет, а выигрыш у такой комбинации против Aardwolf со штатным вентилятором составил от 2 до 4 градусов Цельсия. А вот на скорости 1400 об/мин разница не превысила одного градуса Цельсия в пользу альтернативного вентилятора.
Чтобы определить предел эффективности охлаждения Aardwolf Performa 10X, мы разогнали процессор до 4,2 ГГц при напряжении 1,042 В и том же уровне LLC.
Кулер Aardwolf справился с охлаждением процессора на скорости одного штатного вентилятора 1890 об/мин и при её снижении до 1400 об/мин.
А вот при более низких оборотах температура процессора превышала отметку 100 градусов Цельсия — и дальше мы просто не стали его насиловать. Добавим здесь, что Scythe Kotetsu также готов обеспечить такому процессору стабильность на скорости вентилятора 1380 об/мин и при пиковой температуре 99 градусов Цельсия. Ну а для Phanteks PH-TC14PЕ такой режим работы процессора является «лёгкой прогулкой» – его температура не превысила отметку 81 градус Цельсия.
Уровень шума кулера Aardwolf Performa 10X на сопоставимых оборотах оказался ниже, чем у Scythe Kotetsu с аналогичным размером вентилятора (120 мм). Впрочем, данный факт вряд ли может вызывать удивление, поскольку диаметр крыльчатки у Aardwolf заметно меньше, и в отсутствие треска подшипника и (или) призвуков в работе электродвигателя так и должно было быть. Продолжая сравнивать уровень шума двух этих кулеров, добавим, что на границе субъективного комфорта 36 дБА скорость вентилятора Aardwolf составляла 1170 об/мин, тогда как у Scythe только 1010 об/мин. Такая же разница и на границе условной бесшумности – 1050 против 890 об/мин у Aardwolf и Scythe соответственно.
Получив данные уровня шума этих кулеров, мы смогли вернуться к оценке их эффективности при одинаковом значении уровня шума на границах 36 и 33 дБА. И вот что у нас получилось.
Как видим, при одинаковом уровне шума эффективность кулеров Aardwolf Performa 10X и Scythe Kotetsu практически идентична, а разница в температурах режимов бездействия объясняется иначе настроенным энергосбережением процессора в случае с Aardwolf. С учётом того, что Performa 10X в России стоит примерно на 1 000 рублей дешевле, чем Scythe Kotetsu Mark II (обычный Scythe Kotetsu, к сожалению, уже не найти), именно кулер Aardwolf мы можем назвать победителем в данном противостоянии.
В сфере компьютерных комплектующих случаи, когда тестируемый объект идеален или хотя бы максимально близок к данному понятию, крайне редки, но Aardwolf Performa 10X – похоже, именно такой случай. Давайте кратко оценим его со всех сторон. Благодаря умеренной высоте он совместим с большинством корпусов системных блоков, а также его можно установить на все современные платформы, не считая AMD Socket TR4.
Далее, за свои две тысячи рублей Performa 10X продемонстрировал одни из лучших показателей эффективности в среднем классе CPU-кулеров, с учётом того, что у большинства пользователей он будет работать в ШИМ-режиме, а значит, резкое снижение эффективности на 800 и 1000 об/мин исключено. Разумеется, не ст
*о*ит ждать от него слишком многого в этом плане, но с десятиядерником на 4,2 ГГц под Prime95 он справился. Скорее всего, данному кулеру пошёл бы на пользу вентилятор со стандартной, а не с уменьшенной в диаметре крыльчаткой, но всё же кардинально на его эффективность данная замена не повлияла бы.
Зато его уровень шума ниже, чем у конкурентов с обычными 120-мм вентиляторами, в чём мы сегодня и убедились. Дополняет этот набор возможность установки второго вентилятора, гарантия сроком год, простая процедура установки и надёжное крепление. Да и в продаже кулер вовсе не виртуален, как модели некоторых других производителей. В общем, рекомендуем. |
987,015 | Close to the Sun — близко к безликости. Рецензия | |
Жанр |Приключение
|
Издатель |Wired Productions
|
Разработчик |Storm in a Teacup
|
Системные требования |Процессор Intel Core i5-670 3,46 ГГц/AMD FX-4100 3,6 ГГц, 8 Гбайт RAM, видеокарта с поддержкой DirectX 11 и 2 Гбайт памяти, например NVIDIA GeForce GTX 760/AMD Radeon R7 260X v3, 50 Гбайт на жестком диске, интернет-соединение и учетная запись в Epic Games Store
|
Дата выхода |2 мая 2019 года
|
Возрастной ценз |от 17 лет
|
Платформы |PC, PS4, Xbox One
|
Официальный сайт * Игра протестирована на PC*
Современные приключенческие игры от первого лица, получившие в народе прозвище «симуляторы ходьбы», делают ставку на историю и интересный визуальный ряд. Даже удивительно, почему до сих пор не появилось подобное произведение, заигрывающее со стилем ар-деко? Упущение поспешила исправить итальянская студия Storm in a Teacup. Очевидным ориентиром для авторов стала Bioshock, вот только слишком уж они увлеклись подражанием детищу Irrational Games.
Идея создать идеальное место для ученых, где гений может сконцентрироваться на работе и раскрыть свой потенциал, далеко не нова. Даже если оставить за скобками Bioshock, наукограды и научные центры существуют и в реальности. В мире игры к этой идее пришел Никола Тесла. Он привлек множество светил для постройки роскошного лайнера «Гелиос», на борту которого поселилась масса блистательных умов из самых разных областей науки. Никем не контролируемые исследования, игнорирование этических норм и фанатичное желание вписать свое имя в историю — что может пойти не так?
Роуз Арчер, опытная журналистка, получает с корабля письмо от своей сестры Ады с просьбой о помощи. Разумеется, родственницу надо выручать. Героиня садится на первый же автономный бот до «Гелиоса» — здесь и начинается наше приключение. Прибытие на лайнер перекликается с первым спуском в подводный город «Восторг» — нас встречают разруха и запустение. Разве что психи в масках с ржавыми трубами наперевес не накидываются.
Очевидно, очередной эксперимент, который должен был облегчить человечеству жизнь, пошел не по плану. Инстинкт журналиста вынуждает Роуз разобраться в происходящем, чтобы открыть общественности правду о «Гелиосе». История должна получиться интересной. Как и в прочих «симуляторах ходьбы», именно сюжет — самое важное, что есть в Close to the Sun. Раз уж игровых механик завезли мало — от вас потребуется лишь дергать рубильники и несколько раз решить элементарные головоломки, именно повествование должно увлечь и не отпускать до самого финала.
Close to the Sun обстоятельно выстраивает экспозицию. Если не мчаться сломя голову вперед, а внимательно изучать окружение, выискивать записки, разбросанные по углам и каютам, то складывается цельная картинка жизни обитателей «Гелиоса». Собираемые записи раскроют целые сюжетные линии: Томас Эдисон пытался внедрить на корабль своих шпионов, а мировая общественность была весьма обеспокоена растущим влиянием Теслы. Авторы оставили занимательные секреты для самых внимательных. Например, можно даже найти упоминание о пребывании на борту молодого Эйнштейна.
Сценаристы выбрали очень непростую тему — иные маститые писатели не всегда способны обуздать парадоксы пространственно-временных путешествий. Close to the Sun закручивает интригу на протяжении нескольких часов. Закручивает, закручивает, закручивает… Сюжет все ходит вокруг да около, и в какой-то момент кажется, что сейчас нас отправят на второй заход по «Гелиосу», чтобы мы взглянули на события с другого ракурса. Но нет, игра не заполняет пробелы в повествовании. Путешествие длится четыре-пять часов, и то при условии, что вы будете оглядываться по сторонам. Объяснение многим событиям придется додумывать самостоятельно.
Но даже если бы все было разложено по полочкам, игру бы это не спасло. Ей остро не хватает свежей идеи, какой-то мощной, пронзающей мысли. Сильная схожесть с Bioshock сыграла с ней злую шутку — удачный, вероятно, с точки зрения маркетинга ход делает Close to the Sun вторичным произведением. Все это уже было, все это мы уже видели. Остается лишь восхищаться изумительными интерьерами «Гелиоса». Внутреннее убранство лайнера поражает роскошью и гигантизмом, а от вида приемного зала или театра захватывает дух. В одном из помещений устроен целый музей, посвященный главному вдохновителю — Николе Тесле, где можно ознакомиться с разными изобретениями, как вымышленными, так и вполне себе реальными.
Соседство вычурных, богатых интерьеров с жуткими последствиями эксперимента рождает чарующе мрачную атмосферу. Именно благодаря ей вы, скорее всего, и захотите пройти Close to the Sun до конца. Хотя и тут без просчетов не обошлось. У игры явные проблемы с контрастом, и зачастую в ней попросту очень темно. Фонарика нет, поэтому порой приходится идти буквально вслепую.
Отдельно хочется сказать спасибо за отсутствие эпизодов с прятками, которые в подобных проектах вечно получаются топорными (см. SOMA). Роуз придется порой сталкиваться с опасностями, но в таких ситуациях нужно будет лишь со всех ног бежать по проложенной дизайнерами дорожке. И подобные эпизоды удачно разбавляют неспешное в целом путешествие.
* * *
С первого трейлера Close to the Sun оказалась обречена на сравнение с Bioshock. Авторы словно специально добивались такого эффекта — даже шрифт выбрали под стать творению Irrational Games. К сожалению, они слишком увлеклись кивками в сторону знаменитой серии, забыв придать своему творению собственное лицо. И лучшее, что есть в Close to the Sun, — приятный визуальный стиль и запоминающаяся песня из финальных титров.
**Достоинства:** **Недостатки:**
|
|
Прекрасные, чарующие интерьеры «Гелиоса» радуют глаз. Только с темнотой, маскирующей шероховатости, перемудрили. К тому же игра загружает систему похлеще иных блокбастеров.
|
|
Эмбиент абсолютно незаметен, как ему и положено. Актеры озвучения подошли к делу ответственно. А финальная песня действительно выделяется — может, вы даже добавите ее в плей-лист.
|
|
Идем вперед, изучаем записки, решаем по ходу дела несколько детских задачек — классический набор для жанра без попытки привнести что-то свое.
|
|
Не предусмотрена.
|
|
Банальный «симулятор ходьбы», который может запомниться стилем и разочаровывающим финалом.
*Оценка* *: 5,5/10* **Видео** **:** |
Subsets and Splits