Latest

GPT-4o 为什么免费?OpenAI的宏伟计划

GPT-4o 为什么免费?OpenAI的宏伟计划

作者:Andrew Best 发表于:Plain English 中的人工智能 阅读时间:3分钟 OpenAI 发布了他们最新的GPT-4o模型,这是迄今为止最好的大语言模型。最令人惊讶的部分不是这个模型有多么出色,而是他们允许所有人免费使用它。 这让我开始思考: 为什么GPT-4o是免费的? OpenAI在想什么? 他们的大部分收入来自于付费用户,这些用户每月支付20美元订阅ChatGPT Plus。我自从推出以来一直在付费使用,现在我在想是否应该取消订阅。 这背后一定有某种理由。 以下是我刚刚制作的视频: 以下是我对为什么GPT-4o免费以及ChatGPT全面统治计划的看法。 大规模采用 OpenAI 希望尽可能多的人使用他们的产品。 竞争加剧 Meta的Llama 3、Google的Gemini、Anthropic的Claude 3……这些都是非常好的模型。当OpenAI推出他们的第一个模型时,他们是唯一的选择,但现在,他们的GPT-3.5模型已经落后了。他们需要一些伟大且免费的东西来夺回市场份额。 训练GPT-5及更高版本 更多的免费用户意味着OpenA

By Leo Pang
AI代理框架

AI代理框架

AI代理框架 Omar Santos 发表于 Bootcamp 阅读时间:5分钟 AI代理框架 聊天机器人和协同操作员是2023年的热门话题,而在2024年及以后,代理和代理框架成为了新的焦点。AI代理框架和工具在开发可扩展和高效的AI自主系统中发挥着重要作用。这些框架和工具使开发人员能够构建、部署和管理针对各种应用的AI代理,从数据处理到多代理协调。这些AI代理工具和框架的领域丰富多样,反映了AI技术的快速发展。 几周前,我写了一篇关于LangGraph的文章。LangGraph的主要优势在于其实现循环工作流程的能力。计算工作流程中的循环允许某些过程的重复,基于不断变化的状态进行连续的交互和决策。这在大语言模型(LLM)像代理一样行动的场景中非常重要,它们参与对话或决策循环,其中一个步骤的结果影响下一个步骤。 LangGraph、LangChain、LlamaIndex和类似的库使得创建AI代理和应用程序变得更容易。AI代理的领域正迅速增长! 如果你不相信我所说的这个列表正在迅速增长,只需看看E2B关于AI代理领域的以下图片。这还不是所有基于代理的工具和框架的完整列表:

By Leo Pang
处理器之战:Apple Silicon与Intel架构。它们真的比对方更好吗?

处理器之战:Apple Silicon与Intel架构。它们真的比对方更好吗?

作者:Shakir 发表于 Bootcamp 阅读时间:4分钟 2020年,苹果在决定放弃基于Intel的硬件并使用自己的设计(Apple Silicon)时声称其处理器超高效。他们甚至大胆地移除了2020年M1 MacBook Air中的风扇。 虽然在首次发布后的几年里,这些无风扇型号似乎存在需要冷却解决方案的争议。 然而,毫无疑问,这些处理器效率极高,这在全球的苹果和科技爱好者中掀起了新的热潮。因为在YouTube上的任何评测视频中它们看起来都非常快。 然后,Intel会制造出比苹果更快的新芯片。这通常是常规的做法。当一个新竞争对手进入市场时,看到这种情况总是令人振奋。 Intel和AMD的战斗是经典的竞争。更多的竞争总是对消费者有利。 但是,它与Intel处理器有什么不同呢? 从物理上看,苹果和Intel在底层架构上是不同的。 架构 * Apple Silicon:基于ARM架构(M1, M2, M3) * Intel:x86-64架构 Apple Silicon基于ARM架构,而不是Intel的x86-64架构。 这种架构体现在CPU执行最基本操作(如算术运算等)

By Leo Pang
到2030年,AI可能会取代全球三亿个工作岗位

到2030年,AI可能会取代全球三亿个工作岗位

DEI支持者能否重新调整方向,引领人类走出困境? 作者:R. Wayne Branch博士 发表于 Fourth Wave 阅读时间:6分钟 我一直想写关于AI对多样性影响的文章。一次与一位建筑师朋友的偶然对话让我找到了写作的基础。这次对话是关于未来的工作和生活,尤其是被资本主义边缘化的人的生活。我问他:“你有没有想过AI会如何改变你的工作?”他三十出头,已经建立了一个成功的建筑公司。令我惊讶的是,他认为AI对人类的益处超过了他将采取的维持业务运行的适应策略。他真是令人鼓舞。 我们对未来建筑和设计的看法 假设你想建一栋房子或商业建筑。从你的桌面、笔记本电脑、手持设备或智能电视上调出众多AI平台之一,然后说:“我想建一栋房子。”平台的悦耳声音问:“在哪里,什么时候,预算多少?”或者你的已知账户、信用评分和消费习惯被扫描,它可能会告诉你:“看起来你有这么多钱可以花费。是这样吗?”然后,一系列提示会引导你思考你的项目(卧室数量、浴室、材料等)。 同时,符合代码的计划被计算出来。包括许可机构、金融机构和供应商在内的集成AI系统将相互对接。它们自己的AI平台管理供应链网络和库存管理系统

By Leo Pang
AI互联网将如何在没有网站的情况下运行——1.1万亿美元的挑战

AI互联网将如何在没有网站的情况下运行——1.1万亿美元的挑战

作者:Sorin Ciornei 发表于 thereach.ai 阅读时间:6分钟 互联网的终结和最后一个网站 🤯 互联网行业面临的颠覆金额高达1.1万亿美元。 📈 由AI驱动的GUI可能通过替代网站、电子商务平台和搜索引擎来颠覆这一行业。 🚀 然而,AI也为能够适应并利用AI能力的企业提供了新的机会。 💡 像亚马逊这样的公司有成功转向新市场的历史,它们可能在利用AI驱动的GUI所带来的机会方面处于有利位置。 在第一部分中,我们讨论了经典的互联网、网页及其周边行业。现在,让我们来看看数据,分析正在重塑整个行业的挑战和机遇。 Google搜索涉及的搜索查询大致分为: * 导航——如何到达某个地方。 * 信息——新闻、股票价格等。 * 其他——旅行计划、复杂购物。 网站是如何构建的,谁为它们付费? WordPress 通常,网站是在本质上已经是拖放式的平台上构建的。这些平台称为内容管理系统(CMS),其中的“内容”指的是网站上的信息。它们还与其他平台如电子商务(Shopify, WooCommerce等)、支付系统(PayPal, Stripe等)集成。

By Leo Pang
MLX:苹果硅芯片上机器学习研究的新纪元

MLX:苹果硅芯片上机器学习研究的新纪元

作者:Simeon Emanuilov MLX for Apple Silicon 在快速发展的机器学习研究领域,效率和灵活性至关重要。Apple的机器学习研究团队推出了一款专门为Apple硅芯片设计的框架——MLX。对于那些对最前沿的机器学习技术感兴趣的人来说,MLX是一个创新的工具。 完整版本的文章和工作示例可以在这篇UnfoldAI文章中找到。 MLX的独特之处 MLX提供了一个结合了熟悉感和创新的API,非常适合习惯使用NumPy的人。其Python API,以及C++、C和Swift API,旨在轻松构建复杂模型,类似于PyTorch,通过高层包如mlx.nn和mlx.optimizers。 MLX的创新功能包括: * 函数变换:MLX引入了自动微分、自动向量化和计算图优化,重新定义了研究效率。 * 延迟计算和动态图构建:这些功能解决了编译速度慢的问题,提供了简单的调试方法。 * 无缝多设备支持:MLX的统一内存模型消除了在CPU和GPU之间繁琐的数据传输,实现了设备间的流畅操作。 MLX的实际应用 MLX不仅仅是理论上的突破,它在实际应用中也表

By Leo Pang
CUDA与OpenCL与Metal:GPU加速霸权之战

CUDA与OpenCL与Metal:GPU加速霸权之战

引言 在对计算能力的不懈追求中,发生了一次剧变,将并行计算从一个小众追求推向了现代技术不可或缺的基石。在这场革命的前沿,两个巨头在一场影响深远的战斗中争夺霸权:NVIDIA的专有CUDA(Compute Unified Device Architecture)和开放标准OpenCL(Open Computing Language)。这场冲突,对开发者、研究人员和各个领域的组织产生了深远的影响,这是由于对加速计算能力的不满足需求所驱动的,用于应对从人工智能和科学模拟到多媒体处理等日益复杂的挑战。 随着对计算资源需求的持续激增,利用硬件加速器的大规模并行能力,特别是图形处理单元(GPUs),已成为一项关键任务。CUDA和OpenCL已成为推动这一GPU加速革命的驱动力,每种技术都提供了一种独特的方法来释放这些专用处理器的巨大潜力。 然而,这场战斗远远超出了CUDA和OpenCL的范围。随着网络继续推动可能的边界,一个新的竞争者进入了战场:WebGPU,一个网络标准,承诺将GPU加速带入JavaScript和浏览器的世界。此外,异构计算架构的兴起进一步复杂了局面,这些架构将CPU、GPU

By Leo Pang
苹果成为AI开发者在利用大规模开源大模型上的首选

LLM

苹果成为AI开发者在利用大规模开源大模型上的首选

摘要: * 苹果推出M3芯片,使得在MacBook Pro上无缝工作与大型AI变换模型成为可能。 * M3支持高达128GB的内存,革新了AI工作流程。 * 增强的神经引擎加速了机器学习模型,同时优先考虑隐私。 * 开发者可以在14英寸MacBook Pro上运行庞大的开源LLM,几乎不损失质量。 * AMD、英特尔、高通和英伟达等其他参与者也在AI开发上投资。 * 苹果的M3芯片比M1和M2芯片提供了显著的性能改进。 * 重新设计的GPU架构提高了GPU利用率并提升了性能。 * 在不断演变的AI领域,苹果成为AI开发者的首选。 主要AI新闻: 在人工智能(AI)和机器学习(ML)的世界中,苹果最近推出了M3芯片,这是一项改变游戏规则的创新,迅速赢得了AI开发者的青睐。这些先进的M3芯片使开发者能够在他们的MacBook设备上无缝地工作与拥有数十亿参数的大型变换模型。苹果在最近的博客文章中自豪地宣布,M3芯片支持高达惊人的128GB内存,解锁了此前在笔记本电脑上被认为是不可能的工作流程。 目前,M3芯片专为14英寸MacBook Pro提供,提供M3、M

By Leo Pang
斯坦福大学的章鱼v2:为提升代理能力革新设备上的语言模型

LLM

斯坦福大学的章鱼v2:为提升代理能力革新设备上的语言模型

* 斯坦福大学推出章鱼v2,这是一个突破性的设备上语言模型,旨在解决现有模型相关的延迟、准确性和隐私问题。 * 章鱼v2大幅减少了设备上应用的延迟,并提高了准确性,效率和速度超过GPT-4,同时将上下文长度减少了95%。 * 方法论涉及对一个从Gemma 2B衍生的20亿参数模型进行微调,这个模型专注于针对Android API调用的定制数据集,并融入功能性令牌以精确调用函数。 * 章鱼v2在函数调用任务中实现了99.524%的惊人准确率,每次调用的延迟最小化到0.38秒,并且只需要5%的上下文长度进行处理。 主要AI新闻: 在人工智能(AI)领域,特别是在大型语言模型(LLMs)的领域,追求模型效率与现实世界限制(如隐私、成本和设备兼容性)之间平衡的需求一直是一个迫切的问题。尽管基于云的模型拥有卓越的准确性,但它们依赖于持续的互联网连接、潜在的隐私漏洞以及高昂的成本,提出了巨大的挑战。此外,在边缘设备上部署这些模型由于硬件限制而在维持最佳的延迟和准确性上引入了复杂性。 为了提升AI的效率和可访问性,已经进行了许多尝试,例如Gemma-2B、Gemma-7B和Ll

By Leo Pang
成为ChatGPT高级用户的演变

成为ChatGPT高级用户的演变

我与ChatGPT的关系很复杂。我几乎尝试了它能做的所有事情,深入分析了它的输出,并使用API创建了许多应用程序和工具。你可以想象,自从它推出的一年半以来,我对它的能力的看法发生了巨大的变化。 我会诚实地说,并不是我对ChatGPT的所有看法都有所提高。事实上,随着时间的推移,对某些用例我实际上变得不那么印象深刻了。有些日子,我坐回来,对它的输出感到惊讶和完全震撼。还有些日子,我因为它的糟糕和不注意而厌恶地退出了我的会话。 然而,我确信,了解它的优点和缺点是成为ChatGPT专家的唯一途径。虽然我仍然不认为自己是一个专家,但我相信我正走在正确的道路上。 这里是我在使用ChatGPT1000多小时中学到的五个最重要的经验。 经验1:信息为王。 ChatGPT依赖于你给它的信息。如果你让它缺乏信息,它每次都会给出不佳的输出。 幸运的是,我很早就发现了这一点。事实上,几个月前,我写了一篇关于这个主题的文章,标题是《最重要的ChatGPT提示》。提示很简单: 在你开始之前,请问我任何你有的澄清问题,这样我可以给你更多信息。请非常全面。 其核心,提示要求ChatGPT通过向你询问关于你想要什么

By Leo Pang
50个ChatGPT能在几秒内完成的任务,仅需这些简单提示

50个ChatGPT能在几秒内完成的任务,仅需这些简单提示

认为自己家务活干得不错?那么来见见ChatGPT,这个让DIY变得轻而易举的新AI助手。ChatGPT能在几秒钟内完成我们数小时的工作——从基础任务如报时到复杂任务如预测股市。 这个人工智能助手能用自然的人类语言进行交流,并且能比你说出“你是怎么做到的?”更快地完成50多种不同的任务。 从按字母顺序排列购物清单到写出能让华兹华斯流泪的诗,ChatGPT证明了AI已经远远超出了人类的能力范围。 所以,拿起咖啡,舒服地坐下来,一起探索这个全明星AI让艰难任务变得轻而易举的无数方式。未来已经到来,它的名字是ChatGPT! 50个ChatGPT能在几秒内完成的任务,仅需这些简单提示: 1. 显示当前时间 2. 打印给定消息 3. 计算字符串中的字符数 4. 将文本转换为大写/小写 5. 重复一条信息若干次 6. 反转一个字符串 7. 检查一个数字是奇数还是偶数 8. 生成一个随机数 9. 检查一个数字是否为素数 10. 查找两个数字的最大公约数 11. 按升序或降序排序数字列表 12. 计算列表中数字的和 13. 检查字符串是否为回文 14.

By Leo Pang
哪款聊天机器人最适合你?微软Copilot,谷歌Gemini,ChatGPT ,Mistral,Claude 3

哪款聊天机器人最适合你?微软Copilot,谷歌Gemini,ChatGPT ,Mistral,Claude 3

1. ChatGPT * 理想用途:最受欢迎的AI聊天机器人 * 优点:界面简洁,频繁更新,功能多样 * 缺点:用户抱怨其性能随时间降低 * 升级选项:ChatGPT Plus提供GPT-4访问权限,月费20美元,包含多种功能。对SEO、编码人员、喜欢调整不同角色的人非常有用。 * 如果你寻求站在技术前沿的AI聊天机器人体验,那么ChatGPT是你的首选。由OpenAI开发,通过2022年11月的广泛预览迅速走红,这款尖端聊天机器人迅速积累了超过1亿的热情用户群,网站每月访问量高达18亿次,证明了其广泛的吸引力和影响力。 * ChatGPT引发了争议,尤其是用户发现其在学术任务和工作替代中的潜在应用。OpenAI民主地开放了ChatGPT的大门,允许用户免费注册后通过GPT-3.5模型利用其能力。对于寻求更高体验的用户,Plus版本提供了访问强大的GPT-4和一系列增强功能,仅需20美元/月。 * GPT-4被誉为所有AI聊天机器人中最广泛的大型语言模型(LLM),以2022年1月的数据训练为领导,并增加了通过Microsoft

By Leo Pang
英伟达的GPU本地运行大模型NVIDIA RTX Chat

英伟达的GPU本地运行大模型NVIDIA RTX Chat

在这个快速指南中,我将向你展示Nvidia的一款全新软件——RTX聊天。你会在下面的描述中找到这个链接。我会向你展示如何安装它,当然,也会告诉你如何使用它。 它到底是什么呢?嗯,你可能之前已经使用过像ChatGPT、Gemini等聊天模型,但这个是运行在你的PC上的。这是Nvidia自己的一个演示,使用当前非常火的模型,给你提供了一个你可以互动的聊天界面。当然,这个东西也可以与你的文档互动,所以你可以对文件夹中的一堆文档提出问题。 GitHub - NVIDIA/trt-llm-rag-windows:一个为在Windows上使用TensorRT-LLM创建检索增强生成(RAG)聊天机器人的开发者参考项目... 安装和开始使用都很简单,但有一些要求。在这个页面上,你可以点击“系统要求”,向下滚动,你会看到你需要: Windows 16GB或更多的RAM Windows 11驱动535或更高版本 一个RTX 30或40系列显卡,或者RTX安培或带至少8GB VRAM的一代显卡 但对于大多数拥有较新显卡进行游戏等活动的人来说,你可能能够满足这个要求。 请记住,如果你想使用一个

By Leo Pang
什么是1位大语言模型(LLMs)? BitNet b1.58时代的1位LLMs

什么是1位大语言模型(LLMs)? BitNet b1.58时代的1位LLMs

在人工智能界,最新加入的是1位大语言模型(LLMs)。你可能难以置信,但这能改变很多事情,并有望解决LLMs面临的一些主要挑战,特别是它们庞大的体积问题。 通常(不总是),不管是LLMs还是逻辑回归,机器学习模型的权重通常存储为32位或16位浮点数。这就是我们无法在个人电脑和生产环境中使用GPT或其他大型模型的原因,因为这些模型由于高精度权重而体积巨大。比如,假设我们有一个名为“MehulGPT”的LLM,它有70亿参数(类似于Mistral或Llama-7B),使用32位精度(每个4字节)。该模型将占用 总内存 = 单个权重大小 * 权重数 总内存 = 4字节 * 70亿 总内存 = 280亿字节 换算成千兆字节(GB): 总内存 = 280亿字节 / 1024³字节每GB 总内存 ≈ 26.09 GB 这个体积非常大,导致许多设备,包括手机,因为没有足够的存储或处理能力而无法使用它。 那么如何让小型设备和手机也能使用LLMs呢? 1位LLMs 在1位大语言模型中,与传统LLMs的32/16位不同,权重参数只用1位(

By Leo Pang
在苹果硅片的电脑本地运行大模型的性能

在苹果硅片的电脑本地运行大模型的性能

lama.cpp允许你在自己的电脑上运行大型语言模型(LLM)。影响性能的关键因素包括CPU、GPU、RAM的大小与速度,以及所用的模型。这里是一个概览,帮助你决定应该选择哪种电脑和量化方式。特别强调这里说的是苹果硅片机Apple Silicon,因为它们支持大容量和高速度的RAM。 Georgi的创新使我们能够通过llama.cpp在本地运行LLM,并且功能不断增加。模型量化也很关键,因为它减小了存储需求。现在,我们可以使用多种技能和量化格式的LLM,例如在huggingface/theBloke上(请注意,要运行llama.cpp需要GGUF模型格式)。Georgi最近还开始了一个仅针对苹果硅片的性能统计比较,提供数据帮助我们在硬件选择和量化效果上做出决策。以下是我的一些主要观点,这些观点通过我的本地实验得到增强。 LLM的“回答”性能(为单个用户生成令牌)主要取决于: a) 可用的RAM需大于模型的内存需求 — 参见huggingface上的模型说明。 在GPU上运行通常比在CPU上快得多,但具体快多少则取决于GPU和CPU的性能。 llama.cpp允许模型在GPU或仅CP

By Leo Pang