powered by simpleCommunicator - 2.0.58     © 2025 Programmizd 02
Целевая тема:
Создать новую тему:
Автор:
Закрыть
Цитировать
Форумы / C++ [игнор отключен] [закрыт для гостей] / Nvidia/CUDA vs. Radeon/?
25 сообщений из 126, страница 1 из 6
Nvidia/CUDA vs. Radeon/?
    #39955595
Фотография mayton
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Привет. С празниками всех!

Недавно сгорела моя пассивная NVidia GeForce GT1030(2Gb) . Заменил ее на геймерскую Gigabyte
Radeon RX570 (4G)
. Не стал-бы покупать но просто подвернулся случай. Кризис. Скидки. И несчастные плачущие
геймеры отдают за ништяки все "шо нажито непосильным...".

В игры я не играю. Но стало интересно что я потерял для разработки. NVidia продвигала свою
библиотеку CUDA для поддержки параллельных расчетов на графических процессорах.
А что продвигает Radeon?
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39955608
miksoft
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
mayton
А что продвигает Radeon?
OpenCL
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39955613
Фотография mayton
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Хм.
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39955626
miksoft,

OpenCL разрабатывает Khronos и в nvidia есть OpenCL по умолчанию.

Моя карта за 22 доллара поддерживает в общем то всё, кроме лучей


Ну и в добавок, карты от nvidia очень мощные, чем можно представить. Можно запустить тест бублика загрузив карту на 100% и при этом на ютюбе включить видеоролик в 4КА и он не будет тормозить обрабатывая декодирование на карте.


Это говорит что нас всех обманывают!.)))
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39955627
значит не на 100% загружен проц
чудес не бывает.
твоя карта за $22 покажет меньше попугаев, чем какой-нибудь 6Гб DDR6 с 4ю миллиардами транзисторов
(вся мощь в кол-ве транзисторов, Люк)
но даже эта твоя карта прекрасно покажет современные игры
а при такой цене их и в дуал легко поставить
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39955630
Фотография mayton
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Да. Мне уже нравится OpenCl.
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39955661
Фотография OoCc
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
ВсеРазумный
miksoft,

OpenCL разрабатывает Khronos и в nvidia есть OpenCL по умолчанию.

Моя карта за 22 доллара поддерживает в общем то всё, кроме лучей


Ну и в добавок, карты от nvidia очень мощные, чем можно представить. Можно запустить тест бублика загрузив карту на 100% и при этом на ютюбе включить видеоролик в 4КА и он не будет тормозить обрабатывая декодирование на карте.


Это говорит что нас всех обманывают!.)))

видео декодер и энкодер, если есть, это отдельное ASIC устройство на карточке.
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39955683
Фотография mayton
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Пока сам для себя тут напишу.

lshw
Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
*-display                 
       description: VGA compatible controller
       product: Ellesmere [Radeon RX 470/480/570/570X/580/580X]
       vendor: Advanced Micro Devices, Inc. [AMD/ATI]
       physical id: 0
       bus info: pci@0000:09:00.0
       version: ef
       width: 64 bits
       clock: 33MHz
       capabilities: pm pciexpress msi vga_controller bus_master cap_list rom
       configuration: driver=amdgpu latency=0



glxinfo | egrep -i 'device|memory'
Код: plaintext
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
    Device: Radeon RX 570 Series (POLARIS10, DRM 3.33.0, 5.3.0-51-generic, LLVM 9.0.0) (0x67df)
    Video memory: 4096MB
    Unified memory: no
Memory info (GL_ATI_meminfo):
    VBO free memory - total: 3658 MB, largest block: 3658 MB
    VBO free aux. memory - total: 4025 MB, largest block: 4025 MB
    Texture free memory - total: 3658 MB, largest block: 3658 MB
    Texture free aux. memory - total: 4025 MB, largest block: 4025 MB
    Renderbuffer free memory - total: 3658 MB, largest block: 3658 MB
    Renderbuffer free aux. memory - total: 4025 MB, largest block: 4025 MB
Memory info (GL_NVX_gpu_memory_info):
    Dedicated video memory: 4096 MB
    Total available memory: 8192 MB
    Currently available dedicated video memory: 3658 MB
    GL_AMD_performance_monitor, GL_AMD_pinned_memory, 
    GL_EXT_framebuffer_object, GL_EXT_framebuffer_sRGB, GL_EXT_memory_object, 
    GL_EXT_memory_object_fd, GL_EXT_packed_depth_stencil, GL_EXT_packed_float, 
    GL_NVX_gpu_memory_info, GL_NV_conditional_render, GL_NV_depth_clamp, 
    GL_AMD_pinned_memory, GL_AMD_query_buffer_object, 
    GL_EXT_gpu_shader4, GL_EXT_memory_object, GL_EXT_memory_object_fd, 
    GL_MESA_window_pos, GL_NVX_gpu_memory_info, GL_NV_blend_square, 
    GL_EXT_memory_object, GL_EXT_memory_object_fd, GL_EXT_multi_draw_arrays,




И еще хотелось бы узнать как видит конфигурацию OpenCL.

Насколько я понял идеологию. OpenCL рассматривает любое железо как такую совокупность абстракций.

Код: plaintext
1.
2.
3.
4.
5.
host
 +- CPU
 +- GPU
 +- FPGA
 ....



И позволяет исполнять на этом железе кастомную логику написанную на неком диалекте С/C++ (*.cl) с ограничениями
на память (не вся память видна а только фрагмент localmemory) на устройстве.
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39957923
Фотография mayton
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Интересно. Можно-ли преобразование Хафа закодить на этой штуке?
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39961892
ChronSQL
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Сначала AMD Radeon поддерживал OpenCL, но потом перешли на HiP (клон CUDA).
Кто-то ещё пробует Ocelot (запуск CUDA-программ на AMD-GPU без рекомпиляции).

- OpenCL плох тем, что его разрабатывают куча компаний AMD, Apple, Intel, Altera ..., и даже если ты реализовал очень крутую фичу в железе, то без одобрения большинства компаний невозможно добавить её в OpenCL (а большинство крутых фич в AMD Radeon невозможно или ненужно в Intel CPU / Apple iPhone SOC / ...).
- HiP плох тем, что у AMD недостаточно денег, чтобы даже сделать клон CUDA
- Ocelot плох тем, что похоже лет 5 не разрабатывался: https://github.com/gtcasl/gpuocelot
- CUDA для кого то плох, что это не Open Source проект

Сравнение команд CUDA, OpenCL, HIP, ... https://github.com/ROCm-Developer-Tools/HIP/blob/master/docs/markdown/hip_terms.md


Большинство фреймворков Machine learning / Deep learning поддерживают CUDA, но не поддерживают OpenCL, а даже там где поддерживается - OpenCL работает в 5 раз медленнее: https://en.wikipedia.org/wiki/Comparison_of_deep-learning_software

You are here: Home / Analysis / Run CUDA without Recompilation on x86, AMD GPUs, and Intel Xeon Phi with gpuOcelot
Run CUDA without Recompilation on x86, AMD GPUs, and Intel Xeon Phi with gpuOcelot: http://www.techenablement.com/run-cuda-without-recompilation-on-x86-amd-gpus-and-intel-xeon-phi-with-gpuocelot/
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39961969
ChronSQL
Большинство фреймворков Machine learning / Deep learning поддерживают CUDA, но не поддерживают OpenCL, а даже там где поддерживается - OpenCL работает в 5 раз медленнее: https://en.wikipedia.org/wiki/Comparison_of_deep-learning_software

для нейронок уже ведь не нужны эти извращения
теперь там свои специальные процессоры
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39961982
и вообще

Модератор: Спрятал картинку под спойлер. Слишком большая и немного офтоповая
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39962055
Фотография mayton
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
ChronSQL
Сначала AMD Radeon поддерживал OpenCL, но потом перешли на HiP (клон CUDA).
Кто-то ещё пробует Ocelot (запуск CUDA-программ на AMD-GPU без рекомпиляции).

- OpenCL плох тем, что его разрабатывают куча компаний AMD, Apple, Intel, Altera ..., и даже если ты реализовал очень крутую фичу в железе, то без одобрения большинства компаний невозможно добавить её в OpenCL (а большинство крутых фич в AMD Radeon невозможно или ненужно в Intel CPU / Apple iPhone SOC / ...).
- HiP плох тем, что у AMD недостаточно денег, чтобы даже сделать клон CUDA
- Ocelot плох тем, что похоже лет 5 не разрабатывался: https://github.com/gtcasl/gpuocelot
- CUDA для кого то плох, что это не Open Source проект

Сравнение команд CUDA, OpenCL, HIP, ... https://github.com/ROCm-Developer-Tools/HIP/blob/master/docs/markdown/hip_terms.md


Большинство фреймворков Machine learning / Deep learning поддерживают CUDA, но не поддерживают OpenCL, а даже там где поддерживается - OpenCL работает в 5 раз медленнее: https://en.wikipedia.org/wiki/Comparison_of_deep-learning_software

You are here: Home / Analysis / Run CUDA without Recompilation on x86, AMD GPUs, and Intel Xeon Phi with gpuOcelot
Run CUDA without Recompilation on x86, AMD GPUs, and Intel Xeon Phi with gpuOcelot: http://www.techenablement.com/run-cuda-without-recompilation-on-x86-amd-gpus-and-intel-xeon-phi-with-gpuocelot/

Спасибо за развернутый анализ.

А какие условия использования CUDA? Нужно ли покупать лицензии и когда?
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39962097
Фотография mayton
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Та сравнительная табличка в wiki - просто ужасна. Тоесть она показывает ужасное покрытие по OpenCL.

Зато вы мне напомнили про OpenMP - спасибо.
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39962536
ChronSQL
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
mayton
Та сравнительная табличка в wiki - просто ужасна. Тоесть она показывает ужасное покрытие по OpenCL.

Зато вы мне напомнили про OpenMP - спасибо.

CUDA басплатна, и распространение её библиотек бесплатно в составе своего софта: https://nvidia.custhelp.com/app/answers/detail/a_id/2134/~/how-much-does-cuda-cost?

OpenMP - крайне ограничен функционал, преимущественно только для CPU и циклов, за редким исключением.

Алексей Роза
ChronSQL
Большинство фреймворков Machine learning / Deep learning поддерживают CUDA, но не поддерживают OpenCL, а даже там где поддерживается - OpenCL работает в 5 раз медленнее: https://en.wikipedia.org/wiki/Comparison_of_deep-learning_software

для нейронок уже ведь не нужны эти извращения
теперь там свои специальные процессоры

Специальные процессора для нейронок это VPU/TPU.

Для нейронок есть nVidia GPU и VPU/TPU:
1. GPU:
- nVidia V100 - 125 TOPS-16bit
- nVidia A100 - 312 TOPS-16bit / 624 TOPS-8bit A100 wiki
2. TPU:
- Google TPU - 90 TOPS-16bit (только TensorFlow framework)
- Huawei Ascend - 256 TOPS-16bit (только MindSpore framework)
- Tesla-motors TPU - 4x36=144 TOPS- 8bit (только Pytorch framework)
- Intel Myriad X - 1 TOPS-16bit (только OpenCV/OpenVINO framework)

Как видно nVidia GPU примерно в 1.5х - 4.3х раза мощнее, чем TPU.
nVidia GPU работает на всех фреймворках машинного обучения, в то время как каждый TPU поддерживает только 1 фреймворк.

Было предположение, что FLOPS у TPU мало, но зато они как-то лучше поддерживают специальные операции, буд-то SE, Grouped / Depthwise convolutional, ..., а оказалось нет , о чем сами и заявили: https://ai.googleblog.com/2019/08/efficientnet-edgetpu-creating.html

...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39962555
Фотография mayton
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
ChronSQL

2. TPU:
- Google TPU - 90 TOPS-16bit (только TensorFlow framework)
- Huawei Ascend - 256 TOPS-16bit (только MindSpore framework)
- Tesla-motors TPU - 4x36=144 TOPS- 8bit (только Pytorch framework)
- Intel Myriad X - 1 TOPS-16bit (только OpenCV/OpenVINO framework)

Как видно nVidia GPU примерно в 1.5х - 4.3х раза мощнее, чем TPU.
nVidia GPU работает на всех фреймворках машинного обучения, в то время как каждый TPU поддерживает только 1 фреймворк.

Непонятно, как вообще можно сравнивать тензорные процессоры и
класические Фон-Неймановские?

Разве что по потребляемой мощности?

Это нужно поставить им одну единую задачу. А как ее поставить если у последних
критерий выхода - нечеткий?

Или четкий?
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39962577
ChronSQL
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
mayton
ChronSQL

2. TPU:
- Google TPU - 90 TOPS-16bit (только TensorFlow framework)
- Huawei Ascend - 256 TOPS-16bit (только MindSpore framework)
- Tesla-motors TPU - 4x36=144 TOPS- 8bit (только Pytorch framework)
- Intel Myriad X - 1 TOPS-16bit (только OpenCV/OpenVINO framework)

Как видно nVidia GPU примерно в 1.5х - 4.3х раза мощнее, чем TPU.
nVidia GPU работает на всех фреймворках машинного обучения, в то время как каждый TPU поддерживает только 1 фреймворк.

Непонятно, как вообще можно сравнивать тензорные процессоры и
класические Фон-Неймановские?

Разве что по потребляемой мощности?

Это нужно поставить им одну единую задачу. А как ее поставить если у последних
критерий выхода - нечеткий?

Или четкий?

TPU это обычные ASIC которые быстро делают перемножение матриц GEMM из Linpack:
- Float 32bit/16bit, Int 8bit, и бинарные операции 1bit
- Математические функции над массивом

В GPU (Volta, Turing, Ampere) встроены те же TPU - называются там Tensor Cores.

Ничего там нечеткого ещё не придумали, в Hardware далеко не ушли.
Это в software далеко ушли - в machine-learning хороший рывок точности за счет deep-learning.
DPM - это лучший не нейроновский алгоритм, все остальные это deep-learning алгоритмы: https://arxiv.org/pdf/1905.05055v2.pdf


...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39962580
Фотография mayton
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Я не понял. На первом графике - что отложено по оси икс?

И что такое TOPS? Tera-Operations?
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39962587
ChronSQL
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
mayton
Я не понял. На первом графике - что отложено по оси икс?

И что такое TOPS? Tera-Operations?

По оси x - год разработки алгоритма.
По оси y (на первом графике) - mAP - mean average precision: mAP
По оси y (на втором графике) - Top5 classification accuracy - https://stackoverflow.com/a/37670482/1558037

TOPS - Tera-Operations per second и затем указываются операции (сложение и умножение) с какими именно числами Float 32bit ... int 8bit.
Для Float 64/32/16bit ещё бывает применяют аббревиатуру TFLOPS.
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39962634
ChronSQL
Специальные процессора для нейронок это VPU/TPU.

не только, там их несколько, общее название - NPU
Нейроморфные процессоры, Тензорные процессоры, Процессоры машинного зрения.
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39962925
ChronSQL
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Алексей Роза
ChronSQL
Специальные процессора для нейронок это VPU/TPU.

не только, там их несколько, общее название - NPU
Нейроморфные процессоры, Тензорные процессоры, Процессоры машинного зрения.

NPU/VPU/TPU - это просто маркетинговые названия, и все из них содержат Tensor Cores.
Единственный выделяется нейроморфный чип IBM True North. Сравнение производительности остальных чипов на GEMM:

- GPU nVidia A100 - 312 TOPS float-16bit / 624 TOPS int-8bit A100

- Mobileye EyeQ5 - 24 TOPS float-16bit
- IBM TrueNorth - 0.046 TOPS int-10bit (нейроморфный, экспериментальный, медленный)
- Cerebras Wafer Scale Engine - (экспериментальный, нет возможности использовать)
- Qualcomm cloud AI 100 - 350 TOPS ( анонсирован, но не вышел ) https://habrastorage.org/webt/vm/__/u4/vm__u4da0mcfd7dtyjixwrjuacg.jpeg
- Intel Nervana NNP - проект закрыт, в пользу Habana Labs GOYA
- Habana Labs GOYA - ~250 TOPS float-16bit - Для поддержки GOYA нужен отдельный бэкенд GLOW https://github.com/pytorch/glow/pull/2638?fbclid=IwAR20kAPhhgy1VaySHHGNh53mnsKo9xmmBmFNfJwUt4fUQYzml2JUqzokh4c эта поддержка пока экспериментальная и все равно GOYA медленнее, чем GPU A100.

Анонсированные недавно Qualcomm cloud AI 100 и Habana Labs GOYA наиболее интересны с точки зрения маркетинга, т.к. показывают высокую производительность на бумаге и обещают поддержку фреймворков: Pytorch, MXNet, TensorFlow, ONNX.

А все эти нейроморфные/квантовые/... - пока только экспериментальные/медленные/ничего не поддерживающие.

Т.е. из вышедших (а не анонсированных) NPU/VPU/TPU нет ни одного быстрее, чем nVidia GPU A100.
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39963061
я читал про Cerebras как раз, там 400000 ядер
Cerebras Systems представила компьютер с самым большим в мире процессором 22×22 сантиметра
авторВ августе 2019 года компания Cerebras Systems и её производственный партнер TSMC анонсировали крупнейшую микросхему в истории компьютерной техники. С площадью 46 225 мм² и 1,2 триллиона транзисторов микросхема Wafer Scale Engine (WSE) примерно в 56,7 раз больше, чем самый большой GPU (21,1 млрд транзисторов, 815 мм²) .
+wiki
в 56.7 раз больше, а работает медленнее?
и использовать его таки можно:
авторПохоже, инженерам Cerebras Systems и TSMC удалось решить эти проблемы. 18 ноября 2019 года на конференции Supercomputing 2019 они официально представили CS-1 — «самый быстрый в мире компьютер для расчётов в области машинного обучения и искусственного интеллекта».

Первые экземпляры CS-1 уже отправлены заказчикам. Один из них установлен в Аргоннской национальной лаборатории министерства энергетики США, той самой, в которой скоро начнётся сборка самого мощного в США суперкомпьютера из модулей Aurora на новой архитектуре GPU от Intel. Другим заказчиком стала Ливерморская национальная лаборатория.

ну и кроме того, GPU же решает другие задачи, там большой упор на распараллеливание мелких задач и обработку графики
а в этих процах упор на ИИ именно, на нейронные связи
авторОбучение больших нейронных сетей может занимать недели на стандартном компьютере. Установка CS-1 с процессорным чипом из 400 000 ядер и 1,2 триллиона транзисторов выполняет эту задачу за минуты или даже секунды, пишет IEEE Spectrum. Однако Cerebras не представила реальные результаты тестов, чтобы проверить заявления о высокой производительности, например, тесты MLPerf. Вместо этого компания напрямую установила контакты с потенциальными клиентами — и позволила обучать собственные модели нейронных сетей на CS-1.
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39963116
ChronSQL
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Алексей Роза
я читал про Cerebras как раз, там 400000 ядер
Cerebras Systems представила компьютер с самым большим в мире процессором 22×22 сантиметра
авторВ августе 2019 года компания Cerebras Systems и её производственный партнер TSMC анонсировали крупнейшую микросхему в истории компьютерной техники. С площадью 46 225 мм² и 1,2 триллиона транзисторов микросхема Wafer Scale Engine (WSE) примерно в 56,7 раз больше, чем самый большой GPU (21,1 млрд транзисторов, 815 мм²) .

+wiki
в 56.7 раз больше, а работает медленнее?
и использовать его таки можно:
авторПохоже, инженерам Cerebras Systems и TSMC удалось решить эти проблемы. 18 ноября 2019 года на конференции Supercomputing 2019 они официально представили CS-1 — «самый быстрый в мире компьютер для расчётов в области машинного обучения и искусственного интеллекта».

Первые экземпляры CS-1 уже отправлены заказчикам. Один из них установлен в Аргоннской национальной лаборатории министерства энергетики США, той самой, в которой скоро начнётся сборка самого мощного в США суперкомпьютера из модулей Aurora на новой архитектуре GPU от Intel. Другим заказчиком стала Ливерморская национальная лаборатория.

Как попробуете сами использовать - пишите.
Это экспериментальные мелкотиражные чипы для нескольких суперкомпьютеров в мире, с потреблением 17 кВт на 1 чип, 17 тысяч Ватт на 1 кристалл.
Их будут использовать 2 человека на всю планету и производительность там наверняка ниже, чем на множестве GPU с общим TDP 17 кВт.

Алексей Роза

ну и кроме того, GPU же решает другие задачи, там большой упор на распараллеливание мелких задач и обработку графики
а в этих процах упор на ИИ именно, на нейронные связи
авторОбучение больших нейронных сетей может занимать недели на стандартном компьютере. Установка CS-1 с процессорным чипом из 400 000 ядер и 1,2 триллиона транзисторов выполняет эту задачу за минуты или даже секунды, пишет IEEE Spectrum. Однако Cerebras не представила реальные результаты тестов, чтобы проверить заявления о высокой производительности, например, тесты MLPerf. Вместо этого компания напрямую установила контакты с потенциальными клиентами — и позволила обучать собственные модели нейронных сетей на CS-1.


Уже 3 года как в nVidia GPU встраивают Tensor Cores для ИИ и затачивают GPU именно под ИИ, а только во вторую очередь под графику, об этом говорит и встроенные Tensor Cores, и реальная производительность GPU на ИИ, и те достоинства которые в первую очередь описывают:
https://developer.nvidia.com/discover/artificial-neural-network Тензорные ядра третьего поколения
Впервые реализованная в архитектуре NVIDIA Volta™ технология тензорных ядер NVIDIA значительно ускоряет инференс и позволяет обучить алгоритмы ИИ за несколько часов, а не недель.
https://www.nvidia.com/ru-ru/data-center/a100/ Ускорение важнейших задач современности
GPU NVIDIA A100 с тензорными ядрами обеспечивает непревзойденное ускорение для ИИ, анализа данных и высокопроизводительных вычислений (HPC) для решения самых сложных вычислительных задач.
...
Тренировка алгоритмов глубокого обучения
...
Инференс глубокого обучения
...
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39963120
ну если уже есть GPU, которые за несколько часов могут обучить сеть, это уже интереснее
жаль будет, если эта хрень на 400000 так и не взлетит...

но всё же весь этот металлолом опять ничто, по-сравнению с малюсенькой клеточкой, которую мы ещё в прошлом веке в микроскоп толком разглядеть не могли
они фору дадут любой нейросети
...
Рейтинг: 0 / 0
Nvidia/CUDA vs. Radeon/?
    #39963149
Basil A. Sidorov
Скрыть профиль Поместить в игнор-лист Сообщения автора в теме
Участник
Алексей Роза
которую мы ещё в прошлом веке в микроскоп толком разглядеть не могли
В прошлом веке был двадцатый век. Электронные микроскопы и всё такое.

P.S.
Микробы (бактерии) были открыты в 19-м веке.
...
Рейтинг: 0 / 0
25 сообщений из 126, страница 1 из 6
Форумы / C++ [игнор отключен] [закрыт для гостей] / Nvidia/CUDA vs. Radeon/?
Найденые пользователи ...
Разблокировать пользователей ...
Читали форум (0):
Пользователи онлайн (0):
x
x
Закрыть


Просмотр
0 / 0
Close
Debug Console [Select Text]