Можно ли GPU-расчёты на AMD ?
Решил наконец купить в домашний десктоп дискретную видеокарту. Играю крайне мало, зато хочу делать расчёты с GPU-ускорением. Считаю под Линухом на Питоне - Numpy, Scipy, Pandas. Планирую начать также играться в ML - всякий там Tensorflow, PyTorch, scikit-learn, Catboost и другие модные бренды. Не картинки, скорее всякие численные данные.
Поскольку я не настоящий красноглазик, а ленивый аналитик, сильно возиться с конфигурированием софта и костылянием не хотелось бы, а заниматься именно архитектурой расчетов.
Поскольку это не критичная штука, а я тот ещё еврей, то хочу взять с рук в Мск, бюджет 6-9 тыр. То есть получается либо GTX 1060-1070, либо RX 570-580. Причём Радеоны дешевше на 1-2 тыщи.
Итак, ВОПРОС: если я беру AMDшную видеокарту, замучаюсь ли я запускать на ней указанные выше фреймворки? На Nvidia+CUDA работает всё вплоть до утюгов и джаваскрипта. А что с поддержкой OpenCL, ROCm, или на чем работает AMDшное ускорение? Есть ли она из коробки, или можно ли её вкатить без танцев с бубном?
Прошу ответы от тех, кто действительно в курсе или пробовал. Ссылки на годные объяснения буду плюсовать люто, бешено, как положено кандидату наук.