导读 计算机世界正在进入一个新时代——人工智能电脑时代。很快,即使在相对普通的系统上,您也将能够直接在计算机上使用一些人工智能功能,无需...
计算机世界正在进入一个新时代——人工智能电脑时代。很快,即使在相对普通的系统上,您也将能够直接在计算机上使用一些人工智能功能,无需连接互联网。
这里的新特点是,尽管存在特殊的人工智能加速器,这些计算机仍然需要大量的内存 (RAM)。存储空间也是如此,因此他们可以通过人工智能提供成熟的本地数据处理。
新一代计算机出现的主要原因之一是微软的Copilot AI功能。正是因为她,新的 Surface Pro 设备才配备了智能手机中常见的 ARM Snapdragon 处理器。目前,Copilot AI PC 的最低要求是拥有 40 TOPS(每秒万亿次运算)性能的 NPU——这正是这些新所提供的。
本地AI功能有很多优势。它们速度快,不与其他用户竞争资源,并且不需要除硬件成本之外的额外成本。您的笔记本电脑获得类似于 ChatGPT 等工具的智能的可能性无疑令人兴奋!
人工智能
即使很小的语言模型也需要大量资源
问题是这些人工智能“模型”相当大。最小且最高效的大容量语言模型可能需要 1-3 GB 内存,但不是特别智能。随着模型的参数和功能的增长,它需要更多的空间。当涉及到模型本身的大小时,您可以通过互联网访问的超级智能法学硕士可以达到数百GB的RAM。在某些情况下,这些人工智能模型有数十亿甚至数万亿的参数,不适合在简陋的笔记本电脑上运行!
另一方面,有一些小型法学硕士可以在智能手机上运行。例如phi-3-mini只需要2.4GB内存。这更接近这些人工智能笔记本电脑上运行的实际情况,尽管它可能不会受到限制!