👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦!
🉑 哈佛神课 CS50 「AI课堂」经验分享,让万能的AI仅仅授之以渔
课程官网 https://cs50.harvard.edu/x/2024/
双语字幕 https://www.bilibili.com/video/BV16k4y1X7KZ
哈佛大学 CS50 全称是 Introduction to Computer Science (计算机科学导论),是一门非常知名的计算机入门课程,在 David J. Malan 教授的讲解下,课堂妙趣横生。
本学期已经结束,官方将视频、Note、作业、项目、社区、常见问题等课程相关资料,都发布在了 👆 上方官网,无需注册就可以直接下载~
https://cs50.ai/
补充一份背景:几个月前,ChatGPT 风靡全球、势头正劲的时候,诸多高校对其「严防死守」,防止学生借助AI偷工减料。哈佛却宣布在 CS50 课堂引入最近技术,探讨生成式AI与教育的结合。
作为探索AI与课堂融合的产品之一,CS50 Duck (CS50.ai 和 VS 插件) 是 CS50 课程推出的一个编程辅助工具。CS50.ai 网站可以通过 GitHub 账号授权登录并免费使用。
不同于 ChatGPT 或 GitHub Copilot 直接给大段代码,CS50 Duck 更像是一位循循善诱的助教,尝试引导你去寻找答案。
如 👆 上图所示,CS50.ai 的使用限制机制是 ♥ 的数量,每次开始有10个 ♥,每次互动消耗一个,每三分钟恢复一个
课程明确规定,学习过程中只允许使用 CS50 课内提供的AI工具,不能借助其他的生成式AI工具,有效避免了AI带来的学术诚信危机。学生们的正向反馈也表明,谨慎地将AI整合到教育环境中,通过提供持续的、定制化的支持来增强学习体验,是一种更科学的教育方式。
https://cs.harvard.edu/malan/publications/V1fp0567-liu.pdf
ShowMeAI知识星球资源编码:R226
课程助教和讲师团队发布报告「Teaching CS50 with AI: Leveraging Generative Artificial Intelligence in Computer Science Education (在计算机科学教育中利用生成式人工智能)」,完整阐述了这次探索的背景、动机、解决方案、实施细节,以及下一步开发规划。
👀 一站式「音视频 ↔ 文字」处理软件 MemoAI,好用到停不下来 (内测免费)
https://memo.ac/
补充一份背景:Memo AI 是一款音视频转文字的AI工具,目前内测中,非常好用!!
Memo AI 可以根据上传的音视频文件/链接,生成带时间轴的字幕,还支持字幕的细颗粒度翻译、编辑和导出。而且,如 👆 上图所示,Memo AI 还能直接生成思维导图、对话和笔记,快速 get 内容要点 (视频&播客必备功能项)!以及,还可以根据字幕合成语音!!支持模型、语言、发言人、语速等设置~
整体来说,我们「音视频 → 文字 → 音视频」的处理需求,可以在这里一站式完成,而且体验和效果都很不错!
Memo AI 目前是内测状态,访问上方网址并点击「内测码申请」,可以免费获取内测码
跟随教程页下载 windows / macOS 应用,本地安装后输入上方领取的内测码,就可以立即开启使用啦~
上传本地音/视频文件,或者上传 YouTube / Apple Podcast 链接,就可以开始转写,并等待系统生成带时间轴的字幕
Memo AI 提供了丰富的设置选项,基本可以满足从简单到高精度定制的各种需求
例如,在「翻译设置」选项中可以从微软、谷歌、百度、腾讯、智谱、火山、DeepL、OpenAI 等集成的第三方服务中进行选择,并完成对应的 API Key 的配置。
以及,「模型管理」部分提供了丰富的候选模型,有支持多种语言、仅支持英语两大类,可以自由选择所需要的类型。
更多功能可以下载后自行探索呀 (* ̄3 ̄)╭
🉑 24小时 / 60万用户 / 2000万次对话,哄哄模拟器火了,开发者却想哭
https://hong.greatdk.com/ (链接在浏览器中打开,因为时不时会被腾讯封)
上周五,一款AI应用「哄哄模拟器」突然就火了。
玩法很简单:用户选择题目后,在限定次数内哄好对方,获得原谅就算成功。但是!应用设置了数值系统,回答正确就加分,回答错误则减分,所以还是很有挑战的~
与 C.AI 这些角色扮演的聊天类应用相比,哄哄模拟器设计了更具体的场景,因此有了更多「要完成任务」的紧迫感,和「终于哄好了」的胜利体验 😀
为了增加体验感,网页还支持上传对方和自己的头像!!一下子真实感就扑面而来~ 已经开始严阵以待 (๑•̀ㅂ•́)و✧
https://web.okjike.com/originalPost/65a62359a922aa28d01d07c6
补充一份背景:突然的爆火把开发者都给搞懵了,到处找这么大的流量是哪里来的,以及 token 真的好贵…
流量暴增 → token账单爆炸 → 寻找外部支持 → 链接被腾讯封锁 → 流量迅速减少 → 链接恢复访问 → …… 开发者 @王登科 度过了跌宕起伏的三天。
这款「哄哄模拟器」的诞生和爆火都非常意外,由此导致的大模型 token 消耗更是一度刷报账单 😭 幸好找到了外部支持,有效支撑住了这波流量。开发者在这篇文章中 ⋙ 详细复盘了完整始末
值得一提的是,这次 月之暗面 又出手了,给开发者提供了最亟需的支持 ⋙ 让我们说:感谢Kimi!
为什么说「又」呢?因为上一款意外爆火的小游戏 ⋙ 完蛋!我被LLM包围了! 也是短时间内巨量 token 消耗给开发者带来巨大的压力,最终也是由 Kimi 提供的支持~
嘶… 好像发现了什么规律…
🉑 以 Perplexity 为例,讲解AI应用的「UX 设计」要达到什么水准
https://mttmr.com/2024/01/10/perplexitys-high-bar-for-ux-in-the-age-of-ai/
补充一份背景:Perplexity 是目前首屈一指的AI搜索引擎,可以根据用户输入的问题,直接输出结构化的结果,包括来源链接、明确答案和相关问题等 。往期这篇日报详细介绍了 ⋙ Perplexity的发展历程
当前生成式AI产品与用户的交互方式,还停留在对话框这种早期阶段,但是各产品之间已经拉开身位。Perplexity 的用户体验 (UX) 设计,值得被点名表扬,简约清晰、可用性强,而且极富新时代的AI感!
这篇文章就对照 Jakob Nielsen 提出的十大可用性原则,详细拆解了 Perplexity 的 UX 设计细节,开发者们可以学起来了!!
Jakob Nielsen,人机交互学博士,1994年4月24日发表的「十大可用性原则」对于交互设计来说意义重大,可以提升整个产品的可用性
- 系统状态的可见性 (Visibility of System Status):设计应始终让用户了解正在发生什么,通过适当的反馈在合理的时间内告知用户
- 用户语言的设计 (Match Between System and the Real World):使用用户熟悉的词汇、短语和概念,而不是内部行话
- 用户控制和自由 (User Control and Freedom):用户经常因误操作而执行某些动作,他们需要一个明确标记的「紧急出口」,以便在不经过延长过程的情况下离开不希望的动作
- 一致性和标准 (Consistency and Standards):用户不应怀疑不同的词语、情况或动作是否意味着相同的事情
- 错误预防 (Error Prevention):良好的错误消息很重要,但最好的设计是首先防止问题发生;要么消除易出错的条件,要么在用户承诺行动之前检查它们,并呈现确认选项
- 识别而非回忆 (Recognition Rather than Recall):通过使元素、动作和选项可见,最小化用户的记忆力负担
- 灵活性和效率的利用 (Flexibility and Efficiency of Use):对于新手用户隐藏的快捷方式可以加快专家用户的交互速度,这样设计就可以同时满足新手和经验丰富的用户
美学和极简设计 (Aesthetic and Minimalist Design):界面不应包含无关或很少需要的信息,界面中的每个额外信息单元都会与相关信息单元竞争,并降低它们的相对可见性
帮助用户识别、诊断和恢复错误 (Help Users Recognize, Diagnose, and Recover from Errors):错误消息应以平实的语言(没有错误代码)表达,准确指出问题,并建设性地提出解决方案
帮助和文档 (Help and Documentation):最好是系统不需要任何额外的解释,然而可能需要提供文档来帮助用户了解如何完成任务
👀 AI大模型购买指南:教你挑选「性价比最高」的模型和供应商
https://artificialanalysis.ai/
这个网站很实用哇!基于数据进行了大量分析和可视化呈现,帮你搞懂各个大模型的性能排名和价格数据,并给出了详细的解释。以下是页面的模型亮点比较,感兴趣可以访问 👆 上方链接了解详情!
质量 vs. 吞吐量,价格 (Quality vs. Throughput, Price)
能力比较 (Quality comparison by ability)
托管提供商亮点比较 (Host comparison highlights)
定价:输入和输出价格 (Pricing: Input and Output prices)
所有模型列表,以及每个模型的具体信息呈现页面
👀 技术科普短文:大模型微调 (LLM fine-tuning) 概述
https://modal.com/blog/llm-fine-tuning-overview
这是一篇「技术科普」小短文,非常清晰地介绍了大语言模型微调 (fine-tuning) 的基本概念和主要步骤~
简单来说,微调就是调整预训练模型的权重,使其更好地适应特定任务或领域,从而提高模型性能。
为什么要微调 LLM
成本效益:微调比简单的提示工程更有效、更高效,可以减少输入 token 的使用,降低成本和延迟
常见用例:微调适用于强调基础模型的固有知识、定制响应的结构或风格,教授模型领域特定指令
微调步骤
选择基础模型:选择适合的开源 LLM,如 Llama 2、Pythia、Mistral 等
准备数据集:创建与任务相关的数据集,包括输入和输出对,并将其格式化为 JSONL 或 CSV 文件
训练:加载预训练模型,使用数据集进行训练,并调整超参数,如学习率、批大小和训练周期
使用高级微调策略:如 Parameter-Efficient Fine-Tuning (PEFT)、量化(Quantization)和分布式训练
使用额外的微调库
trl:允许实现强化学习循环,根据生成的输出奖励模型
accelerate:简化了在多个 GPU 或 CPU 上运行模型的过程
🉑 我和AI并肩作战后,总结了一份新手战地生存手册
https://medium.com/unintended-purposes/the-ai-operators-handbook-0fa3f4d387f8
这是一份如何与AI合作的操作指南,可以帮助人类理解AI的运作方式,避免在各种危险情况犯错或者支付高昂代价。
AI是听人类指令的战友。为了保持职场和社会竞争力,我们应该更快速地切换到AI指令长、AI操作员的角色。
你是驾驶员,而非修车工:不要对AI的工作原理或训练过程做无根据的假设,调试AI与驾驶它不是一回事
症状与根源大相径庭:AI系统中的错误可能在系统的另一端才能被诊断出来,症状与根源往往相距甚远
别给你的模型赋予人格:不要给模型强加个性,这会导致对模型行为的错误假设
模型也有保质期:如果不定期重新训练,模型的性能会下降,这种现象称为「漂移」
外推并非易事:机器学习模型在未见过的数据区域往往表现不佳,因为它们没有被训练来处理这些情况
区分定性与定量错误:AI的失败与人类的失败截然不同,AI擅长处理数字,而人类则依赖经验
AI严格按照训练执行:如果模型在训练中表现优异,但在实际预测中表现不佳,可能是因为训练目标与预测目标不一致
数据中的偏见会反映在AI上:模型会复制数据中的偏见,需要平衡数据中的各类别比例
不要篡改输入或输出:篡改输入或输出可能导致不良后果,尤其是输入,因为模型只认识它见过的输入模式
模型串联的风险:串联多个模型会增加系统故障的风险
串联模型的错误会指数级增长:即使单个模型准确率很高,串联使用时准确率会大幅下降
保持模型间合同的一致性:在使用串联模型时,确保模型间的合同得到妥善记录和执行
对AI负责:AI不会自我监管,使用AI并不意味着可以逃避责任
关注训练频率和数据延迟:AI通常有「训练」和「推理」两种模式,新数据需要经过训练才能影响模型的预测
建立防护措施:不要让AI在无人监督的情况下做决策,设定合理的预期结果界限
在流程中设置理智检查:不要仅依赖单一的性能指标,确保流程中的每个组件都正常运作
🉑 OneFlow 大模型技术年货:60+精选文章,800页电子手册
ShowMeAI知识星球资源编码:R219
补充一份背景:OneFlow (一流科技) 是袁进辉在2017年创立的深度学习框架公司,2023年被光年之外收购,后并入美团
最近一年,OneFlow 一直在公众号发布大模型「硬核」技术文章,近期将这些文章整理为一本电子书合集,并开放下载。以下是文章标题,如果有感兴趣的内容,可以扫描上方二维码,前往星球下载完整版。
一、揭秘 ChatGPT 的技术原理
语言大模型的进化轨迹
揭秘编码器与解码器语言模型
通俗解构语言大模型的工作原理
揭示 GPT Tokenizer 的工作原理
ChatGPT 数据集之谜
ChatGPT 训练三阶段与 RLHF 的威力
向量嵌入:AutoGPT 的幻觉解法?
GPT-3/ChatGPT 复现的经验教训
为什么 ChatGPT 用强化学习而非监督学习?
谷歌研究科学家:ChatGPT 秘密武器的演进与局限
ChatGPT 作者 John Shulman:我们成功的秘密武器
ChatGPT 背后的经济账 154
二、语言大模型的演进
语言大模型 100K 上下文窗口的秘诀
大模型的无限上下文与数据集组合艺术
大模型长上下文运行的关键问题
关于大型语言模型的争论和局限
关于语言大模型的八大论断
复杂推理:语言大模型的"北极星"能力
超越 ChatGPT:大模型的智能极限
ChatGPT 架构师:语言大模型的多模态能力、幻觉与研究经验
John Schulman:强化学习与真实性,通往 TruthGPT 之路
AI 教父 Geoffrey Hinton:智能进化的下一个阶段
三、开源语言大模型的崛起
ChatGPT 一周年:开源语言大模型的冲击
开源语言大模型演进史 (1):早期革新
开源语言大模型演进史 (2):高质量基础模型竞赛
开源语言大模型演进史 (3):向 LLaMA 2 看齐
为什么开源语言大模型很重要?
开源语言大模型的正确姿势
四、语言大模型的预训练、微调、推理
语言大模型的分布式训练与高效微调指南
全面对比 GPT-3.5 与 LLaMA 2 微调
微调语言大模型选 LoRA 还是全参数?基于 LLaMA 2 的深度分析
LoRA 和 QLoRA 微调语言大模型:数百次实验后的见解
LoRA 微调语言大模型的实用技巧
推演语言模型的大小与计算开销
Transformer 模型的基础演算
大型语言模型的推理演算
语言大模型的推理技巧
迈向 100 倍加速:全栈 Transformer 推理优化
语言大模型推理性能工程:最佳实践
可复现的语言大模型推理性能指标
ChatGPT 规模化服务的经验与教训
OpenAI 的规模化经济效益与第二护城河
五、AI 底层软硬件协同优化
GPU 架构与计算入门指南
机器学习硬件十年:性能变迁与趋势
编译器技术的演进与变革
AI 算力碎片化:矩阵乘法的启示
AI 算力反碎片化:世界上最快的统一矩阵乘法
LLVM 之父 Chris Lattner:我的 AI 基础设施软件构建理念
PyTorch 创始人:开源成功的方法论
英伟达的 AI 霸主地位会持久吗?
六、OpenAI 的通用人工智能洞察
从 0 到 1,OpenAI 的创立之路
GPT-4 首席科学家:第二次改变 AI 浪潮的方向
OpenAI 联合创始人:GPT 的研究起源和构建心法
OpenAI 首席科学家:通向无监督学习之路
GPT 总设计师:大型语言模型的未来
OpenAI 首席科学家:直面 AGI 的可能性
Sam Altman 的成功学
七、AI 的应用与未来
Transformer 作者:指令型智能体的构建之法
GPT-4.5 前瞻:代码解释器,编程新纪元
ChatGPT 们的淘金时代
ChatGPT,大增长时代的序幕
感谢贡献一手资讯、资料与使用体验的 ShowMeAI 社区同学们!
◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!文章来源:https://www.toymoban.com/news/detail-830952.html
◉ 点击 🎡生产力工具与行业应用大全,一起在信息浪潮里扑腾起来吧!文章来源地址https://www.toymoban.com/news/detail-830952.html
到了这里,关于哄哄模拟器:现象级爆款+1;音视频转录翻译神器MemoAI;AI新手战地生存手册;LLM技术年货下载;大模型微调概述;AI大模型挑选指南 | ShowMeAI日报的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!