日报&周刊合集 | 出产力东西与职业运用大全 | 点赞重视谈论拜托啦!
支付宝 X 堆友 | 新春音浪 AIGC 贺岁MV大赛,奖金池很有诚心啊!
弥补一份布景:堆友 (D.Design) 是阿里巴巴推出的一个新的在线规划途径
支付宝和堆友联合推出了一场 AIGC 视频创造竞赛,邀请创造者运用AI东西创造贺岁 MV,并供给了丰盛的奖金池 (* ̄3 ̄)╭ 并且不限东西、不限风格、时刻富余!感觉有时刻能够玩一玩~
竞赛分为「群众组」和「学生组」,设置了近百个获奖名额、总共23万元的奖金池!堆友的竞赛一直主打奖品丰盛!每次都超心动啊~ ⋙ 了解更多
征集时刻:1月8日-2月18日
视频时长:建议30秒以上
创造要求:能够运用 Stable Diffusion、Midjourney 等任意AI东西生成图片或视频,答应运用PS、剪映等东西进行修改;供给创造阐明、Prompt、创造进程等可作为评定加权参考
Runway GEN:48 | 第二届48小时AI短片创造竞赛,开放报名啦!
弥补一份布景:Runway 是一款强壮的、根据AI的图片&视频修改东西;GEN:48 是 Runway 举行的一个AI短片创造挑战竞赛,今年现已是第2次举行 Runway GEN:48 全称是 Runway GEN 48 Hour Short Film Competition,是一场面向全球的线上创造竞赛。竞赛主题和创造要求在开赛时宣告,届时参赛者需求在48小时内构思并创造一部 1~4 分钟的电影短片。
参赛时刻:2月3日-2月5日
每队人数:1-3 人
参赛鼓励:参赛团队可得到 30万 Runway 生成积分用于竞赛创造
获奖著作:5000 美元,100万 Runway 生成积分,Epidemic Sound 一年会员,著作在 NYC 和 LA 的AI电影节上放映
重要出资 | a16z 向 Quora 出资 7500 万美元,Poe 估值到达5亿美元
弥补一份布景:Quora 是全球闻名的在线问答社区,类似于海外版「知乎」;Poe 是 Quora 推出的AI谈天机器人聚合途径,几个月前答运用户创造 Bot 并能够盈利 (一定程度上类似 OpenAI GPTs)
2024年1月10日,Quora CEO @Adam D’Angelo 宣告,Quora 从 a16z 获得了新一轮 7500 万美元的融资,用以加快 Poe 途径的增长。Adam D’Angelo 专门说到,本次融资后的大部分资金将用于奖励 Poe 途径的 Bot 创造者,协助个人开发者和开发团队在 Poe 途径完成盈利,并借此将AI推广向更广泛的人群。
在 Adam D’Angelo 看来,AI 年代的 Poe 定位类似于互联网前期的浏览器,需求完成两个方针:成为顾客与各种AI产品交流的最佳办法 & 成为开发者构建AI谈天产品并触达群众的最简单的办法。
公告披露了一些根底数据,例如Poe 总用户 (付费用户+免费用户) 已超百万,创立的 Bot 现已有数百万个;Quora 月活超4亿且有着健康的现金流,公司将一同运营 Quora 和 Poe 两个产品
a16z 在其官方网站发文确认了这一信息,并给出了具体的出资理由。日报将其总结为以下5个方面,能够看出出资人十分专业且务实,并且给同类型内容途径指出了开展方向:
商场潜力:尽管AI模型和东西的开展迅速,但一般顾客对AI的触摸依然有限;Poe 能够协助全球5亿+互联网用户更容易地访问和运用AI
聚合多个大模型:Poe 聚合了全球领先的多个大模型,包含 OpenAI GPT 系列、Anthropic Claude系列、Google Gemini / PaLM、Meta Llama 2、StableDiffusionXL、Mistral 等等,更符合用户的多模型需求场景
创立并运用 Bot:创造者能够运用现有模型构建 Bot 并从中获益,用户能够发现 AI Bot 并自定义东西集,双方能够形成网络效应
Quora 社区优势:Quora 社区有着超越4亿优质用户并沉积了许多专业常识,并且为 AI Bot 供给了一个共同且大流量的分发途径
团队&开展速度:Poe 团队在短时刻内完成了快速开展,包含支撑了多种言语、开发了PDF摘要等功用、完成了创造者盈利、推出了 iOS、Android 和 Windows 版本运用等
收藏清单 | AI工程师都应了解的生成式AI结构和东西
生成式人工智能 (Generative AI) 常用的结构和东西有哪些?看看这篇文章的总结!!AI工程师的效率瑰宝大起底,快快加入自己的东西清单~
LangChain
用处:开源途径,用于构建根据大言语模型 (LLM) 的运用程序,例如 ChatGPT 谈天机器人
功用:供给了一套全面的套件,能够在不同用例中运用大言语模型,例如谈天机器人、主动问答、文本摘要等
作业流程:括将许多数据分解成小块,嵌入向量并存储在向量数据库中;用户输入提示后,LangChain 运用大言语模型检索相关信息并生成回答
SingleStore Notebooks
根据Jupyter Notebook的东西,专为 SingleStore 分布式 SQL 数据库而规划
特色:供给了原生的 SingleStore SQL支撑,支撑 SQL 和 Python 的互操作性,支撑协作作业流程,供给了交互式数据可视化支撑,关于新手易用
用处:数据探究和分析,特别是与 SingleStore 数据库一同运用
LlamaIndex
用处:高级编列结构,增强壮言语模型的才能,答应它们与私有或特定范畴的数据源交互
功用:供给了一种结构化的办法来吸取、安排和运用各种数据源,包含 APIs、数据库和 PDFs
作业流程:经过将数据索引为大言语模型优化的格局,LlamaIndex 使得用户能够经过自然言语查询与他们的私有数据无缝对话
Meta Llama 2
布景:运用公开在线数据进行预练习,其间包含书籍、文章、其他书面内容等许多语料库
用处:用于谈天机器人的集成,供给了详尽且连接的对话呼应
特色:经过 RLHF 进行监督微调和强化学习,包含回绝采样和近端策略优化 (PPO) ,提升了规划、效率和功能,,适用于不同的核算才能和运用场景
Hugging Face
途径:供给了模型中心、数据集、模型练习、微调东西、运用构建、社区和协作等功用
功用:具有许多预练习模型,覆盖了文本分类、问答、翻译和文本生成等多种 NLP 使命
用处:供给了丰富的数据集资源,支撑模型的练习和微调;与 TensorFlow 和 PyTorch 等流行编程库无缝集成,便于开发AI运用
Haystack
类别:端到端结构,用于构建根据 NLP 技能的运用,包含但不限于生成式AI
功用:支撑检索增强生成 (RAG) 、供给一套全面的 NLP 东西和组件、灵敏&可扩展
用处:结合检索&生成办法进行查找和内容创立,供给全面的 NLP 东西和组件,并且能与流行的生成式AI模型进行集成
播客引荐 | 42章经:24/25 年是下一代浪潮最要害的两年
弥补一份布景:42章经的播客品质都十分高!尤其关于AI的几期播客,频频呈现在咱们的播映、收藏和引荐清单里
这期播客是 42章经 开创人 @曲凯 的个人年终总结。2023年,他聊过了商场上大部分的 AI 开创人和简直一切的 AI 出资人,服务了十多家 AI 公司的融资并且参与了其间四家的出资,视角可谓一线且全面。
在这期播客中,他毫无保留地分享了关于 23 年 AI 商场的总结调查,以及对 24 年及之后商场改变趋势的判别。他的一个中心观点是: 24年和25 年便是咱们这代人最要害的两年的时机。
这期播客谈论区,有许多优质留言&曲凯的互动,引荐引荐!这个年代有许多的优异团队在瞄着AI赛道呀~ [跃跃欲试]
0:20 24、25 年会是下一代浪潮最要害的两年
7:51 当下商场的中心问题:AI 并不能被称为一个「赛道」
9:16 创业者要处理的中心问题从「怎么讲故事拿融资」变成了「怎么靠自己挣钱做收入赢利」
11:18 处理大模型可控性差的三条途径
14:29 技能不老练的阶段,反而更需求好的产品司理
16:22 2024 会不会是 AI 年代的 2010 (移动互联网元年)?
18:36 一个判别:24 年会呈现大规划落地的产品,25 年 AI 会迎来迸发
19:11 当下一定要接受的两个设定
24:00 一些未来的方向和时机
37:45 2024 年咱们判别公司和挑选项目的规范
精华收拾汇总
历史上没有哪个赛道能够像这波AI一样,迅速建立极大的一致,但又一同存在十分大的非一致。一致是AI是个十分颠覆性立异的大时机,非一致则是 AI 到底会在什么时候以哪种办法落地
2023年是对大多创业者十分不友好的一年:商场还早,改变很快,出资团队最终挑选出资「人」而不是AI。最后拿钱的团队许多不是靠着逻辑、故事、产品或数据,反而是靠着开创人布景融资
为什么2023年没有AI产品能够落地呢?要害还是大模型的可控性差。处理大模型可控性差有三条途径:
交给成果。典型公司是 Fancytech。在自己体系内部用 AI 和人工结合的办法来操作,不让客户直接和产品产生交互
区分出产端和消费端。典型公司是 S2B2C 类企业。让 AI 只和出产环节产生关系,不好消费环节产生关系
收敛场景、有限运用。典型公司是妙鸭。AI 产品落地要么挑选一些现已可控性比较高的场景,要么便是让 AI 和其他各种现有的技能配合
当下需求要接受的两个设定:
商场还早,大模型才能未达标,现在能落地能挣钱的公司大多是套壳的、擦边的、蹭的,真信 AGI,真想做 AI 的大多都在苦楚挣扎
现在商场上一切的产品都将成为先烈和炮灰。大部分产品会跟着时刻开展而筛选,小部分产品会逐渐晋级迭代成完全不同的逻辑 (不过这些迭代,大概率会产生在已有的公司和团队内部)
新一代创业者要充分认识,商场中心矛盾是怎么把产品做到落地挣钱,在一两年里能把公司体量和安排结构养起来,然后跟着技能的老练而不断迭代产品和商场
一些未来的方向和时机:
一切的现存外包场景都有时机用AI的办法和安排结构重做一遍,并扩大 N 倍
大多的双方途径都有时机被 AI改造,非标服务可被 AI 规范化,生成式内容可把双方途径变成单边即可成立并快速起量
大多的杂乱产品和交互形状都有时机被 AI Agent 简化成谈天类产品交给,大幅下降运用门槛
内容生成即途径,解构途径,未来 AI 年代内容出产和消费方式将产生颠覆性的改变 ⋙ 文字版原文
RAG 要害速查 | 一图把握 RAG「从根底到进阶」完整内容
弥补一份布景:RAG (Retrieval-Augmented Generation,检索增强生成) ,从外部常识数据库检索文档 (Retrieval component) 并将这些文档与用户的查询一同传递给大言语模型 (LLM) 以生成呼应 (Generation component)
这份速查表介绍了 RAG 的效果、RAG 根底用法、RAG 高级用法 这三部分的要害内容。日报将主要内容收拾成中文, 上方链接可下载 svg 高清文件~
Motivation
大言语模型 (LLM) 生成的答案或许不精确,因为
LLM 或许会产生错觉 (hallucinations)
相关信息或许超出了 LLM 练习语料库的范围
LLM 无法访问最新的信息
Basic RAG
Basic RAG 部分说到的才能和技能,是构建一个有用 RAG 体系的根底,能够进步体系在了解和回答问题时的精确性和相关性。
要害才能 (Key Abilities)
噪声鲁棒性 (Noise Robustness):体系需求能够处理和过滤掉噪声数据,确保生成的信息质量
负回绝 (Negative Rejection):体系应该能够识别并回绝不相关或错误的信息
信息整合 (Information Integration):体系需求能够整合来自不同来历的信息,以供给全面的答案
反现实鲁棒性 (Counterfactual Robustness):体系需求能够处理与练习数据分布不同的情境,即能够对反现实情况进行推理
质量评分规范 (Quality Scores)
上下文相关性 (Context Relevance):生成的答案需求与用户问题的上下文紧密相关
答案相关性 (Answer Relevance):生成的答案应该直接回答用户的问题
忠诚性 (Faithfulness):体系供给的答案应该忠诚于检索到的信息,避免产生错觉 (hallucinations)
Advanced RAG
Advanced RAG 说到的才能与技能,能够提升RAG 体系在处理杂乱问题和数据时的功能,确保检索和生成进程能够相互协作,供给更精确和相关的信息。
RAG成功的要求
检索:必须能够找到与用户查询最相关的文档
生成:必须能够有用运用检索到的文档来充分回答用户查询
高级检索技能
块巨细优化 (Chunk-size optimization):调整检索时运用的文档块巨细,以进步检索效率和相关性
滑动窗口分块 (Sliding window chunking):运用滑动窗口技能来分块文档,以便更灵敏地处理文档内容
常识图谱 (Knowledge Graphs):运用常识图谱来增强检索进程,供给更丰富的上下文信息
嵌入微调 (Embedding Fine-Tuning):对嵌入向量进行微调,以更好地匹配检索使命的需求
结构化常识 (Structured knowledge):整合结构化的常识信息,如实体和关系,以进步检索的相关性
元数据附加 (Metadata Attachments):将元数据附加到文档上,以供给额外的上下文信息
混合检索 (Mixed Retrieval):结合不同类型和来历的检索成果
问题嵌入转化 (Question-Embedding Transformation):对用户问题进行嵌入转化,以更好地与检索文档匹配
高级生成技能
信息压缩 (Information Compression):压缩检索到的信息,以便于后续的生成进程
生成器微调 (Generator Fine-Tuning):对生成器进行微调,以生成更精确和相关的答案
成果重排序 (Result Re-Rank):对检索成果进行重排序,以优化最终输出的顺序
适配器办法 (Adapter Methods):运用适配器来调整模型以适应特定的使命或数据
一同处理检索和生成成功要求的技能
全体微调 (Monolithic Fine-Tuning):对整个体系进行微调,以进步全体功能
生成器增强检索 (Generator-Enhanced Retrieval):经过生成器的输出来增强检索进程
检索根底模型 (Retrieval Foundational Models):构建强壮的根底检索模型
迭代检索-生成 (Iterative Retrieval-Generation):选用迭代的办法,结合检索和生成进程,以逐渐改进答案的质量
blog.llamaindex.ai/a-cheat-she…
这篇文章是上方速查表的拓宽介绍长文,不只具体介绍了要害组件的具体功用,并且附上了要害代码,搭配食用能够更好地把握 RAG 常识和实践~
DeepSeekMoE | 国内首个 MoE 开源大模型,技能陈述&模型权重一同发布
弥补一份布景:MoE (Mixture-of-Experts,混合专家架构) 上次引起广泛重视是 Mistral AI 发布的 Mixtral-8x7B 大言语模型,这种架构的中心思维是将一个大神经网络分解为多个小神经网络,每个小网络负责处理不同部分从而进步灵敏性和效率
DeepSeek 率先开源了国内首个MoE大模型 DeepSeekMoE,全新架构,支撑中英,免费商用。自研的全新MoE架构,多规范(2B->16B->145B)模型效果均领先:
DeepSeekMoE 2B 可接近 MoE 模型的理论上限 2B Dense 模型功能(即相同Attention/FFN 参数配比的 2B Dense模型),仅用了 17.5% 核算量
DeepSeekMoE 16B 功能比肩 LLaMA2 7B 的一同,仅用了 40% 核算量,也是本次主力开源模型,40G 显存可单卡部署
DeepSeekMoE 145B 上的前期实验进一步证明该MoE架构明显领先于Google的MoE架构GShard,仅用28.5%(乃至18.2%)核算量即可匹配 67B Dense 模型的性
DeepSeekMoE 在结构上做了两大立异
细粒度专家区分:不同于传统MoE直接从与规范FFN巨细相同的N个专家里挑选激活K个专家,咱们把N个专家粒度区分更细,在保证激活参数量不变的情况下,从mN个专家中挑选激活mK个专家,如此能够更加灵敏地组合多个专家
共享专家分离:咱们把激活专家区分为共享专家(Shared Expert)和独立路由专家(Routed Expert),此举有利于将共享和通用的常识压缩进公共参数,削减独立路由专家参数之间的常识冗余 ⋙ 阅览原文
新书追更 | 从头开始构建大言语模型,作者 Sebastian Raschka
弥补一份布景:这本书处于 MEAP (Manning Early Access Program) 预览阶段,共8章,现在更新的2章答应在线阅览
根据 上方预览链接能够看出,这本书「Build A Large Language Model」能够带你深入了解大言语模型的内容作业原理,教你从头创立、练习和调整大言语模型,一步步揭开 LLM 的奥秘面纱~
跟跟着书籍内容的打开,读者能够依照业界规范步骤来练习和开发自己的小模型,乃至能够在自己的笔记本上完成开发和部署! 还能够跟随作者的脚步构建各种运用的 LLM 运用
上图是作者收拾的全书常识结构。日报把书籍目录收拾如下,现已发布的前2章有更详尽的大纲,其他章节待更新 (主题很新&质量不错,可追更哇
了解大言语模型
什么是LLM?
LLM的运用
构建和运用LLM的阶段
为不同使命运用LLM
运用大型数据集
GPT架构的深入调查
构建大言语模型
总结
参考文献和进一步阅览
处理文本数据
了解词嵌入
文本分词
将符号转化为符号ID
增加特别上下文符号
字节对编码
运用滑动窗口进行数据采样
创立符号嵌入
编码词位置
总结
参考文献和进一步阅览
练习答案
了解注意力机制
从头开始完成GPT模型以生成文本
在未符号数据上进行预练习
为文本分类进行微调
运用人类反馈进行微调以遵循指令
在实践中运用大言语模型
并且!作者还在 GitHub 开源了书籍配套的悉数代码!还在实时更新和维护中~ 这伟大的开源精神,值得一个 Star⭐
感谢奉献一手资讯、资料与运用体会的 ShowMeAI 社区同学们!
◉ 点击 日报&周刊合集,订阅论题 #ShowMeAI日报,一览AI范畴开展前沿,抓住最新开展时机!
◉ 点击 出产力东西与职业运用大全,一同在信息浪潮里扑腾起来吧!