本文介绍了如何使用Model Context Protocol(MCP)构建一个EVM MCP服务器,使大型语言模型(LLM)能够与多个EVM兼容区块链进行交互。该服务器允许LLM访问链上数据,从而为Web3自动化和分析开辟了新的可能性。文章详细说明了服务器的搭建步骤、关键代码,以及如何配置Claude桌面应用来测试该服务器,最后探讨了未来扩展EVM功能、构建AI特定增强功能的方向。
Concrete ML v1.7 版本发布,引入了多项新功能,包括在加密数据上微调 LLM 模型和神经网络,利用 GPU 加速提升加密推理的性能(最高可达 1-2 倍),以及展示了一个通过加密 DNA 预测祖源的 Hugging Face space 示例。此外,该版本还支持 Python 3.11 和 PyTorch 2。
Concrete ML v1.8 发布,主要改进了LLM混合微调的速度和可用性,通过优化的FHE后端和新的低秩逼近API,实现了在加密数据上进行隐私保护的LLM微调。该版本还支持Python 3.12,提供了一个更高效的LLM微调API,并利用GPU加速编译模型的评估过程,降低了成本和延迟。
Zama发布 Concrete ML v1.9 版本,该版本支持 TFHE-rs 密文格式,支持开发者使用 Rust 生态系统进行加密机器学习工作流程,能够将 Concrete ML 模型无缝集成到基于 Rust 的 FHE 管道中。同时,LoRA LLM 微调协议也得到了性能上的改进,并推出了新的 SDK,旨在构建支持 FHE 的浏览器和移动应用程序,使移动用户能够安全地处理敏感数据。
本文讲述了在深度学习和LLM中实现可复现性的挑战,特别是使用Nvidia GPU时,浮点运算的非结合性以及硬件差异会导致结果不一致。文章分享了通过重写GEMM CUDA kernel,避免使用Tensor Cores,并确保运算顺序的确定性来解决这一问题,最终在不同硬件上实现了模型输出的一致性。
Concrete ML v1.8 发布,旨在实现去中心化的私有 LLAMA 微调。此版本改进了 LLM 混合微调的速度和可用性,通过优化的 FHE 后端和新的低秩近似 API。Concrete ML 现在支持 Python 3.12,确保与最新的工具和框架兼容。该版本还提供了一个更好的 API,用于在加密数据上微调 LLM,并添加了一个优化的 FHE 后端,加速了计算。
Rig LLM系列学习正在稳步推进中。蛇年春节的脚步渐近,在此提前给大家拜年啦!祝愿大家新的一年,万事顺遂,喜乐安康,新年快乐!难得的春节假期,我打算好好利用这段时间,一头扎进AI编程的世界里,潜心钻研,努力夯实技术根基,为未来的技术探索之路,做好充足准备。TL;DRRi
使用Rig构建LLM应用程序的全面指南TL;DR:在我们与Rig的旅程中,从最初的介绍到探索使用它进行下一个LLM项目的令人信服的理由,本指南将带您更进一步。在本指南中,我将带您通过使用Rig库在Rust中构建一个检索增强生成(RAG)系统。在不到100行代码中,您将
简介你是否曾经与Siri、Alexa等AI助手聊天,或者使用过那些帮助你预订航班或查询天气的智能聊天机器人?你是否好奇这些助手背后的工作原理?今天,我们将通过使用Rust和Rig库构建一个属于自己的航班搜索AI助手,来揭开这些技术的神秘面纱。你可能会想:“等等,Rust?那不是以难学著称的语言吗
TL;DR:本综合指南将带你使用Rust和Rig库创建一个AI驱动的Discord机器人。你将学习如何设置环境、构建语言模型代理并将其与Discord集成。最终,你将拥有一个AI驱动的聊天机器人,它可以根据你的文档回答问题、提供编程帮助,并作为自动化支持工具。介绍欢迎来到“使用Rig构
速览:语义搜索系统轻松搭建在Rust的世界里,想打造强大的语义搜索系统吗?别愁啦!借助Rig和LanceDB,这一切变得超简单。我们会手把手带你实操,从创建向量嵌入,到存储和搜索,每一步都清晰明了。不管是构建RAG系统,还是打造语义搜索引擎,这套方法都能让你事半功倍。完整源代码已放
在人工智能飞速发展的当下,大语言模型(LLM)的应用愈发广泛。但如何有效管理LLM代理,确保其行为的可预测性、可维护性和可扩展性,成为了亟待解决的问题。今天,我们就来探讨一种创新的解决方案——AgentStateMachine。什么是AgentStateMachineAg