每周AI和NLP新闻——2024年7月第3周

每周AI和NLP新闻——2024年7月第3周

以下是NLPlanet为你挑选的关于NLP和AI的新闻!如果你想了解更多关于AI和NLP的新闻,可以阅读以下这些文章:
每周AI和NLP新闻——2024年7月第2周
每周AI新闻——2024年7月第1周
每周AI和NLP新闻——2024年6月第3周
每周AI和NLP新闻——2024年6月第2周

  • 微软放弃在 OpenAI 董事会的观察员席位。微软已辞去 OpenAI董事会的观察员席位,反映出对首席执行官Sam Altman 领导下的OpenAI发展方向充满信心。此举简化了微软与OpenAI的关系,也可能解决反垄断问题。OpenAI不会提供未来的观察员角色,而是倾向于直接合作互动,就像微软和苹果一样。链接:https://www.axios.com/2024/07/10/microsoft-openai-board-seat-observer
  • Figma撤下AI工具,因被批评抄袭苹果设计。Figma在被指控复制苹果的iOS天气应用界面后,撤回了其AI工具“Make Designs”。首席执行官 Dylan Field 认为这一快速推出存在缺陷,CDT Kris Rasmussen指出使用了第三方AI模型,而非Figma内部开发,表明可能存在使用OpenAI或亚马逊等实体训练AI模型的顾虑。链接:https://www.theverge.com/2024/7/2/24190823/figma-ai-tool-apple-weather-app-copy
  • OpenAI 公布五级人工智能等级,旨在尽快达到 2 级。OpenAI的五级AGI进步等级表明,人工智能已接近2级“推理者”,能够像人类一样解决问题。2级的特点是具有高级逻辑和推理能力,预计在未来 1.5 年内可达到。链接:https://the-decoder.com/openai-unveils-five-level-ai-scale-aims-to-reach-level-2-soon/
  • Stability AI发布Stable Assistant功能。Stability AI通过 Stable Diffusion 3的新功能增强了其稳定助手,具有用于图像中对象交换的“搜索和替换”功能,以及用于图像编辑、升级和视频生成的现有功能。链接:https://stability.ai/news/stability-ai-releases-stable-assistant-features
  • Stability AI的许可证更新。Stability AI已将其许可证修改为“Stegree AI社区许可证”,该许可证为个人和小型企业提供了更为宽松的条款,包括在一定收入门槛以下的免费使用以及对非商业和小型企业使用不受限制,同时还解决了 SD3 Medium 模型的质量问题。链接:https://stability.ai/news/license-update
  • FlashAttention-3:快速准确的异步低精度注意力机制。FlashAttention-3通过优化 GPU 利用率(尤其是注意力机制)来提高Transformer模型的效率。利用 Hopper GPU的Tensor Cores和Tensor Memory Accelerator,它在FP8中实现了高达75%的利用率和 1.2 PFLOPS,将速度提高了1.6-2倍,并能够更有效地训练大型语言模型,同时减少内存需求。链接:https://tridao.me/blog/2024/flash3/
  • 作为个体经营者使用人工智能进行工作。作者研究了人工智能模型在简化编码、用户界面开发、搜索功能、文档和业务沟通方面的应用,重点介绍了用于编码任务的 Cursor和用于优化电子邮件交互的Claude等工具。链接:https://jobsforai.substack.com/p/how-i-use-ai
  • 人工智能的夏天。本文讨论了人们对人工智能的高期望与其在商业和消费者领域实际应用速度较慢之间的差异,强调了诸如企业销售周期延长、CIO保守的方法以及对人工智能作为即插即用解决方案的误解等挑战。它还涉及由市场炒作和竞争动态引发的过度投资问题,尽管ChatGPT等解决方案的用户增长显著。链接:https://www.ben-evans.com/benedictevans/2024/7/9/the-ai-summer
  • 从零开始训练 Llama模型。本文提供了使用Transformers库训练Llama语言模型的分步指南,包括每个阶段的代码片段,从库的安装、标记器设置到模型训练和将最终模型上传到Hugging Face Hub。链接:https://huggingface.co/blog/nroggendorff/train-with-llama-architecture
  • 代理开发与工程师创造过程案例。本文讨论了如何通过机器学习开发智能代理演变为一种更具艺术性的实践,并敦促工程师们拥抱创造力和关系思维,因为开发过程具有非线性和不可预测性。链接:https://ashe.ai/blog/rapid-reflections/agent-dev
  • 将系统2提炼到系统1中。本文探讨了将系统2的复杂推理方法(如思维链)集成到 LLM 中更快的系统1流程中。通过采用自我监督学习,作者将系统2的推理能力嵌入到系统1中,从而提高了系统1的性能并降低了计算成本,提出了一种更有效的方法来处理AI中的复杂推理。链接:https://arxiv.org/abs/2407.06023
  • 利用离散表示进行持续强化学习。本文提出的研究结果表明,强化学习(RL)代理中的离散、基于向量的分类表示可以实现更高效的世界建模和改进的策略学习。来自各种RL场景(包括持续学习环境)的经验证据表明,此类表示可以实现更快的适应和更好的性能。链接:https://arxiv.org/abs/2312.01203
  • MJ-Bench:你的多模态奖励模型真的是文本到图像生成的良好判断标准吗?MJ-Bench是一种新的基准,旨在评估用于为文本到图像生成技术(例如 DALLE-3 和稳定扩散)提供反馈的多模态奖励模型。它根据对齐、安全性、图像质量和偏差等标准测试模型。值得注意的是,基准测试发现GPT-4o等闭源VLM在提供有效反馈方面表现出色。MJ-Bench依靠全面的偏好数据集来微调这些反馈机制,其结果可在Huggingface上访问。链接:https://arxiv.org/abs/2407.04842
  • AriGraph:使用情景记忆为LLM代理学习知识图谱世界模型。AriGraph是一种新颖的方法,它通过整合结构化记忆图来增强 LLM 代理,从而改善其在 TextWorld等环境中的决策和规划能力。它能够从情景和语义记忆中进行高效的联想检索,在烹饪、清洁和拼图等实际领域中与自主性相关的复杂任务中表现出色。链接:https://arxiv.org/abs/2407.04363v1
  • SylphAI-Inc/LightRAG:LLM 应用程序的 Lightning 库。LightRAG是一个类似于PyTorch的模块化库,用于构建聊天机器人和代码生成等LLM应用程序,具有可针对各种用例进行自定义的Retriever-Agent-Generator管道。其透明且可修改的代码库旨在培养信任并易于适应。链接:https://github.com/SylphAI-Inc/LightRAG

感谢阅读!你还可以订阅我们的YouTube频道,观看大量大数据行业相关公开课:https://www.youtube.com/channel/UCa8NLpvi70mHVsW4J_x9OeQ;在LinkedIn上关注我们,扩展你的人际网络!https://www.linkedin.com/company/dataapplab/

原文作者:Fabio Chiusano
翻译作者:诗彤
美工编辑:过儿
校对审稿:Jason
原文链接:https://medium.com/nlplanet/weekly-ai-news-july-15th-2024-563342d73660