Skip to content

Latest commit

 

History

History
105 lines (54 loc) · 12 KB

this-week-ai-2023-08-18.md

File metadata and controls

105 lines (54 loc) · 12 KB

本周人工智能动态,8 月 18 日:OpenAI 财务困境 • Stability AI 宣布 StableCode

原文:www.kdnuggets.com/2023/08/this-week-ai-2023-08-18.html

### ALT ###

图片由编辑使用 Midjourney 创建

欢迎来到本周的“本周人工智能动态”版块,这里是 KDnuggets 的每周精选帖子,旨在让你了解人工智能快速发展的世界中的最引人注目的进展。从塑造我们对 AI 在社会中角色理解的突破性头条到引发思考的文章、富有洞察力的学习资源和推动我们知识边界的研究,这篇帖子提供了 AI 当前格局的全面概述。本周更新旨在让你在这一不断发展的领域中保持更新和知情。敬请关注,阅读愉快!


我们的三大课程推荐

1. 谷歌网络安全证书 - 快速进入网络安全职业生涯。

2. 谷歌数据分析专业证书 - 提升你的数据分析技能

3. 谷歌 IT 支持专业证书 - 支持你的组织 IT


头条新闻

“头条新闻”部分讨论了过去一周在人工智能领域的顶级新闻和发展信息。信息涵盖了政府 AI 政策、技术进步和企业 AI 创新。

???? ChatGPT 陷入困境:OpenAI 可能在 2024 年破产,AI 机器人每天给公司带来 70 万美元成本

OpenAI 因运行 ChatGPT 和其他 AI 服务的高成本而面临财务困境。尽管早期增长迅猛,但 ChatGPT 的用户基础在最近几个月有所下降。OpenAI 正努力有效地变现其技术并产生可持续收入。同时,其现金消耗速度惊人。随着竞争加剧和企业 GPU 短缺阻碍模型开发,OpenAI 需要紧急寻找盈利路径。如果未能实现,破产可能在这家开创性 AI 初创企业的视野之内。

???? Stability AI 宣布 StableCode,一款为开发者提供的 AI 编码助手

Stability AI 发布了其首个专为软件开发优化的生成 AI 产品 StableCode。StableCode 集成了多个在超过 5000 亿个代码标记上训练的模型,提供智能自动补全、响应自然语言指令,并管理长跨度的代码。尽管对话式 AI 已经可以编写代码,StableCode 的设计目的是通过理解代码结构和依赖关系来提高程序员的生产力。凭借其专门的训练和能够处理长上下文的模型,StableCode 旨在提升开发者工作流程,并降低新手编码者的入门门槛。此次发布标志着 Stability AI 在 AI 辅助编码工具领域的首次尝试,面对日益激烈的竞争。

OpenAI 推出 Superalignment

OpenAI 正在通过其新成立的 Superalignment 团队积极应对超级智能 AI 可能带来的风险,该团队使用诸如从人类反馈中进行强化学习等技术来对齐 AI 系统。主要目标包括开发可扩展的训练方法,利用其他 AI 系统进行验证模型的鲁棒性,并对即使是故意失调的模型也进行全面的对齐管道压力测试。总体而言,OpenAI 旨在通过开创负责任地引导超级智能的方法来证明机器学习可以安全进行。

通过生成 AI 学习(和浏览)

Google 宣布对其搜索引擎生成 (SGE) AI 能力进行多项更新,包括为科学/历史主题提供悬停定义、代码概述的彩色语法高亮显示,以及一项名为“浏览时 SGE”的早期实验,该实验在用户阅读网页上的长篇内容时总结关键点并帮助探索页面。这些更新旨在增强对复杂主题的理解,提高对编码信息的消化能力,并在用户浏览时帮助导航和学习。这些更新代表了 Google 基于用户反馈不断发展其 AI 搜索体验的努力,重点是理解和提取复杂网页内容中的关键细节。

Together.ai 将 Llama2 扩展到 32k 上下文窗口

LLaMA-2-7B-32K 是由 Together Computer 开发的开源长上下文语言模型,它将 Meta 的 LLaMA-2 的上下文长度扩展到 32K 令牌。它利用了像 FlashAttention-2 这样的优化技术,实现了更高效的推理和训练。该模型使用包括书籍、论文和教学数据在内的数据混合进行了预训练。示例提供了对长篇 QA 和总结任务的微调。用户可以通过 Hugging Face 访问该模型,或使用 OpenChatKit 进行自定义微调。像所有语言模型一样,LLaMA-2-7B-32K 可能生成有偏见或不正确的内容,因此使用时需要小心。

文章

“文章”部分展示了一系列引人深思的人工智能相关文章。每篇文章深入探讨了特定主题,为读者提供了对 AI 各个方面的见解,包括新技术、革命性方法和突破性工具。

???? LangChain 速查表

使用 LangChain,开发者可以构建强大的 AI 语言应用程序,而无需重新发明轮子。其可组合的结构使得轻松混合和匹配 LLM、提示模板、外部工具和记忆等组件。这加快了原型设计,并允许随着时间的推移无缝集成新功能。无论你是想创建聊天机器人、QA 机器人还是多步骤推理代理,LangChain 都提供了快速组装高级 AI 的构建模块。

???? 如何使用 ChatGPT 将文本转换为 PowerPoint 演示文稿

该文章概述了一个两步流程,用于使用 ChatGPT 将文本转换为 PowerPoint 演示文稿,首先将文本总结成幻灯片标题和内容,然后生成 Python 代码,将总结转换为 PPTX 格式,使用 python-pptx 库。这允许快速创建引人入胜的演示文稿,从长篇文本中避免繁琐的手动工作。文章提供了有关如何编写 ChatGPT 提示和运行代码的清晰说明,提供了一种高效的自动化演示解决方案。

???? LLM 研究中的开放挑战

这篇文章概述了改进大型语言模型的 10 个关键研究方向:减少幻觉、优化上下文长度/构建、融入多模态数据、加速模型、设计新架构、开发像光子芯片这样的 GPU 替代品、构建可用的代理、改进从人类反馈中学习、增强聊天界面,以及扩展到非英语语言。它引用了这些领域的相关论文,指出了诸如为强化学习表示人类偏好和为低资源语言构建模型等挑战。作者总结说,虽然像多语言能力这样的某些问题更易于解决,但像架构这样的其他问题则需要更多突破。总体而言,研究人员、公司和社区中的技术和非技术专长将对推动 LLMs 的积极发展至关重要。

???? 为什么你(可能)不需要微调 LLM

这篇文章概述了改进大型语言模型的 10 个关键研究方向:减少幻觉、优化上下文长度/构建、融入多模态数据、加速模型、设计新架构、开发像光子芯片这样的 GPU 替代品、构建可用的代理、改进从人类反馈中学习、增强聊天界面,以及扩展到非英语语言。它引用了这些领域的相关论文,指出了诸如为强化学习表示人类偏好和为低资源语言构建模型等挑战。作者总结说,虽然像多语言能力这样的某些问题更易于解决,但像架构这样的其他问题则需要更多突破。总体而言,研究人员、公司和社区中的技术和非技术专长将对推动 LLMs 的积极发展至关重要。

???? 使用 OpenAI GPT 模型的最佳实践

这篇文章概述了使用 OpenAI 的 GPT 模型时获得高质量输出的最佳实践,借鉴了社区经验。建议提供详细的提示,包括长度和角色等细节;多步骤的指示;要模仿的示例;参考文献和引文;用于关键思考的时间;以及执行代码以提高精确度。按照这些关于如何指导模型的建议,比如明确步骤和角色,可以得到更准确、相关且可定制的结果。该指导旨在帮助用户有效地构建提示,以充分发挥 OpenAI 强大的生成能力。

???? 我们对人工智能的看法都错了

作者认为当前的 AI 能力被低估了,使用创造力、搜索和个性化等例子来反驳常见误解。他指出,AI 可以通过重新组合概念展现创造力,而不仅仅是生成随机想法;它不仅是一个超级搜索引擎像 Google;它可以发展个性化关系,而不仅仅是通用技能。尽管不确定哪些应用最有用,作者呼吁保持开放的心态而非轻视,强调最好的方式是通过持续的实践探索来确定 AI 的潜力。他总结道,我们对 AI 的想象力有限,它的用途可能远远超出当前预测。

工具

“工具”部分列出了社区创建的实用应用程序和脚本,供那些希望忙于实际 AI 应用的用户使用。在这里,你会找到各种类型的工具,从大型综合代码库到小型利基脚本。请注意,工具的分享并不代表推荐,也没有任何形式的保证。在安装和使用任何软件之前,请自行调查!

????️ MetaGPT:多代理框架

MetaGPT 接受一行需求作为输入,并输出用户故事/竞争分析/需求/数据结构/API/文档等。内部,MetaGPT 包括产品经理/架构师/项目经理/工程师。它提供了一个软件公司完整的过程以及精心编排的标准操作程序。

????️ GPT LLM Trainer

该项目的目标是探索一种实验性的新管道,用于训练高性能的任务特定模型。我们尝试抽象出所有复杂性,使从构想到高效的完全训练模型的过程尽可能简单。

只需输入任务描述,系统将从零开始生成数据集,将其解析为正确的格式,并为你微调 LLaMA 2 模型。

????️ DoctorGPT

DoctorGPT 是一个能够通过美国医学执照考试的大型语言模型。这是一个开源项目,旨在为每个人提供自己的私人医生。DoctorGPT 是 Meta 的 Llama2 70 亿参数大型语言模型的一个版本,经过医学对话数据集的微调,随后使用强化学习和宪法 AI 进一步改进。由于模型只有 3GB 大小,因此可以在任何本地设备上运行,无需支付 API 使用费。

更多相关话题