🗒️集成大型语言模型(LLMs)到spaCy NLP管道:新的NLP折腾方案
2023-10-11
| 2023-10-11
0  |  阅读时长 0 分钟
type
status
date
slug
summary
tags
category
icon
password

引言

你是否曾因为对机器学习模型的训练和部署感到困扰而失去头发?或者,你是否花费大量时间编写规则以完成某个NLP任务,然后发现规则基本上像是用来打破的?
好消息,spacy-llm 出现了,让你可以轻松地将大型语言模型(LLMs,如GPT-4、GPT-3或者遥遥领先的Baichuan等)集成到你的NLP项目中。这是一种不需要你拥有Ph.D.或是数据科学家的天赋就能使用的解决方案。🤣

基本特性

  • 序列化的LLM组件:轻松地将提示(prompts)集成到你的管道中。
  • 模块化功能:自由定义任务(如命名实体识别、文本分类)和模型(使用哪个LLM)。
  • 多种模型支持:既支持API托管模型,也支持自托管的开源模型。

动机

让我们面对现实,有时候我们只是想快速原型而不想花时间收集标签数据或进行复杂的模型训练。LLMs在这方面表现出色,只需几个(有时甚至不需要)示例即可完成定制的NLP任务。但等等,生产环境呢?噢,对于生产环境,传统的监督学习通常更可靠(LLM太费资源、太慢了)。spacy-llm 让你能够兼得两者的优点。

安装与使用

安装简单到让你怀疑人生:
然后,你可以轻松地在代码中添加一个使用GPT-3进行文本分类的组件:
其中config.cfg

自定义任务与模型

如果你觉得自己是个“特别”的人,需要“特别”的任务,没问题!你可以编写自己的任务和模型,然后将它们注册到系统中。

结语

下次当你的老板催你快点完成那个“非常重要”的NLP项目时,不妨试试 spacy-llm

📎 参考文章

 
  • LLM
  • 算法
  • NLP
  • 使用Docker和VLLM部署大型模型:GPU选择的那点小误会WSL2设置的最佳实践之——跳出Anaconda,拥抱Poetry
    Loading...
    目录