March 12, 2024

AMD也推出本地聊天AI,挑战Nvidia和Intel

随着人工智能技术的日渐成熟,各大芯片制造商正纷纷推出可以在本地运行的AI聊天机器人,可以提供更私密、更快速的用户体验。近期,AMD宣布加入这一竞争行列,发布了支持Ryzen和Radeon处理器的AI聊天机器人解决方案,与市场上的Nvidia和Intel产品展开正面竞争。

AMD近日公布了其本地运行AI聊天机器人的官方指南,该解决方案可以使Ryzen和Radeon处理器的拥有者能够在不依赖云计算的情况下,通过几个简单步骤与AI聊天机器人交互。该公司强调,用户无需任何编码经验,就可以轻松安装并运行该应用。

根据AMD的指南,用户需要拥有Ryzen AI PC芯片或是RX 7000系列GPU才能使用这项服务。特别是,Ryzen AI目前只适用于配备了Radeon 780M或760M集成图形的高端Ryzen APU。尽管如此,AMD的应用程序表明,“具有AVX2支持的CPU”也能运行该服务,虽然可能会比较慢。

此外,AMD建议用户下载并安装LM Studio,一个为RX 7000系列用户设计的ROCm版本软件,它支持搜索并运行特定的大型语言模型,如为聊天优化的Llama 2 7B。AMD特别推荐使用带有“Q4 K M”标签的模型,这代表了特定的量化级别和其他特征,以保证运行效率和响应速度。

Nvidia早前推出了仅在其GPU上运行的Chat with RTX应用,提供了分析文档、视频等文件的功能。相比之下,Intel展示了如何使用Python编程实现本地AI聊天机器人,但编程的门槛可能会劝退不少潜在用户。

AMD的这一步棋不仅填补了自身在AI聊天机器人应用方面的空白,也显示其至少是超越Intel的决心。未来,AMD可能会推出自己版本的Chat with RTX,或者选择与LM Studio开发者合作,为AMD硬件启用更多功能。随着AI功能可能集成到Radeon Adrenalin驱动套件中,AMD在驱动级别的AI优化可能让这个新功能更加值得期待。

AMD的加入无疑为本地运行AI聊天机器人市场增添了更多竞争。与Nvidia的Chat with RTX和Intel的Python编程解决方案相比,AMD提供了一个更易于普通用户使用的选项,同时也在硬件支持上展现了其技术优势。随着这三大芯片制造商在AI领域的持续竞争,未来的AI聊天机器人无疑会更加智能、更加便捷,为用户带来前所未有的交互体验。

0 comments:

VxWorks

Blog Archive