围棋吧 关注:349,285贴子:10,526,136
  • 6回复贴,共1

运行AI围棋做职业围棋手陪练,7万元预算如何配置电脑好?

取消只看楼主收藏回复

我一个职业围棋圈的朋友想配置电脑运行AI围棋,做职业围棋手的陪练,预算7万元,如何配置电脑好呢?要求是软件和硬件组合能达到辅助顶尖棋手训练水平这个档次。
希望网友们能给出一个大概配置或参考意见。


IP属地:重庆1楼2019-05-17 21:17回复
    谢谢以上各位的意见和参与!
    我这位朋友及我,对当前电脑配置及高端配置是外行。但围棋吧藏龙卧虎,所以来咨询下,希望有电脑(适用AI围棋)高端配置知识、经验的大侠能看到并给出一些参考意见。或者,给出一些货真价实的购买、配置渠道也可以。
    我及我这位朋友都认为,盲目地到重庆石桥铺电脑城去咨询、配置这种专业化的高端电脑,效果可能并不好。
    配置价位,7-10万元,都可以考虑。


    IP属地:重庆8楼2019-05-18 07:16
    回复
      我的理解:
      现在的AI围棋所凭持的两大主要技术:
      1、基于残差神经网络(带残差块的深度卷积神经网络)的深度学习,现在AI围棋的神经网络架构都差不多,水平主要取决于机器学习训练后获得的权重文件。
      2、基于蒙特卡洛树搜索,也就是单位时间模拟对弈的次数和质量,这个是和第1条的神经网络架构和权重文件紧密相关的——需要对蒙特卡洛树搜索进行宽度和深度的有效剪枝。
      配置运行AI围棋的电脑,棋手并不用此电脑训练神经网络来获得高水平权重文件,而是从网上或其它渠道获得最新、水平较高的权重文件,因此电脑的配置主要考虑单位时间模拟对弈的次数和质量。


      IP属地:重庆21楼2019-05-19 11:03
      收起回复
        先考虑运行AI围棋的电脑配置三大主件:显卡GPU、CPU、主板


        IP属地:重庆23楼2019-05-19 19:25
        回复
          网文选摘(来自:搜狐-科技):
          【技术】GPU为何是人工智能的核心利器? 2017-03-23 07:35
          ……GPU关键性能是并行计算。
          ……在GPU设计之初,并非针对深度学习,而是图形加速,……而如今,NVIDIA可以提供基于其GPU的从后端模型训练到前端推理应用的全套深度学习解决方案,……
          对于人工智能计算架构来说,一般可以归结为三类模式:CPU + GPU,CPU + FPGA,CPU + ASIC(专用集成电路)。其中,应用于图形、图像处理领域的GPU 可以并行处理大量数据,非常适合深度学习的高并行、高本地化数据场景,是目前主流的人工智能计算架构。
          如果把科技产业划分为三个时代:PC 时代、移动互联网时代和AI 时代。目前,我们处于移动互联网时代的末期和下一个时代的早期,即以深度学习、无人驾驶为主的AI 时代。(选摘完)


          IP属地:重庆24楼2019-05-19 19:26
          回复
            网文选摘(来自:搜狐-科技):
            详细分析人工智能芯片 CPU/GPU/FPGA有何差异? 2017-04-02 02:55
            ……
            1.GPU是什么?
            图形处理器GPU最初是用在个人电脑、工作站、游戏机和一些移动设备上运行绘图运算工作的微处理器,可以快速地处理图像上的每一个像素点。后来科学家发现,其海量数据并行运算的能力与深度学习需求不谋而合,因此,被最先引入深度学习。……
            2.GPU和CPU的设计区别
            那么GPU的快速运算能力是如何获得的?这就要追溯到芯片最初的设计目标了。中央处理器CPU需要很强的处理不同类型数据的计算能力以及处理分支与跳转的逻辑判断能力,这些都使得CPU的内部结构异常复杂;而图形处理器GPU最初面对的是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境,所以GPU只需要进行高速运算而不需要逻辑判断。目标运算环境的区别决定了GPU与CPU不同的设计架构:
            CPU基于低延时的设计
            — 大量缓存空间Cache,方便快速提取数据。CPU将大量访问过的数据存放在Cache中,当需要再次访问这些数据时,就不用从数据量巨大的内存中提取了,而是直接从缓存中提取。
            — 强大的算术运算单元ALU,可以在很短的时钟周期内完成算数计算。当今的CPU可以达到64bit双精度,执行双精度浮点源计算加法和乘法只需要1~3个时钟周期,时钟周期频率达到1.532~3gigahertz。
            — 复杂的逻辑控制单元,当程序含有多个分支时,它通过提供分支预测来降低延时。
            — 包括对比电路单元与转发电路单元在内的诸多优化电路,当一些指令依赖前面的指令结果时,它决定这些指令在pipeline中的位置并且尽可能快的转发一个指令的结果给后续指令。
            GPU基于大吞吐量的设计
            — 压缩缓存空间Cache,从而最大化激发内存吞吐量,可以处理超长的流水线。缓存的目的不是保存之后需要访问的数据,而是担任数据转发的角色,为线程提高服务。如果有很多线程需要访问同一个数据,缓存会合并这些访问,再去DRAM中访问数据,获取的数据将通过缓存转发给对应的线程。这种方法虽然减小了缓存,但由于需要访问内存,因而自然会带来延时效应。
            — 高效的算数运算单元和简化的逻辑控制单元,把串行访问拆分成多个简单的并行访问,并同时运算。例如,在CPU上约有20%的晶体管是用作计算的,而GPU上有80%的晶体管用作计算。
            3.GPU和CPU的性能差异
            CPU与GPU在各自领域都可以高效地完成任务,但当同样应用于通用基础计算领域时,设计架构的差异直接导致了两种芯片性能的差异。
            CPU拥有专为顺序逻辑处理而优化的几个核心组成的串行架构,这决定了其更擅长逻辑控制、串行运算与通用类型数据运算;而GPU拥有一个由数以千计的更小、更高效的核心组成的大规模并行计算架构,大部分晶体管主要用于构建控制电路和Cache,而控制电路也相对简单,且对Cache的需求小,只有小部分晶体管来完成实际的运算工作。所以大部分晶体管可以组成各类专用电路、多条流水线,使得GPU的计算速度有了突破性的飞跃,拥有了更强大的处理浮点运算的能力。这决定了其更擅长处理多重任务,尤其是没有技术含量的重复性工作。


            IP属地:重庆25楼2019-05-19 19:30
            收起回复
              网文选摘(来自:搜狐-科技):
              详细分析人工智能芯片 CPU/GPU/FPGA有何差异? 2017-04-02 02:55
              (选摘二)
              尽管目前的人工智能市场几乎只有英伟达一家独大,但英伟达的芯片也不是能够自己完成深度学习训练的。或者说,英伟达的GPU芯片还不足以取代那些英特尔的CPU,大多数环境下它们暂时只能加速这些处理器。所以,GPGPU(备注:通用GPU)暂时只是概念上的,GPU还不足以在大多数复杂运算环境下代替CPU,而随着人工智能技术的进步,对硬件的逻辑运算能力只会更高不会降低,所以搭载强大CPU核心的多核异构处理器才是更长期的发展方向。


              IP属地:重庆26楼2019-05-19 20:09
              回复