相关项目链接:
Paddlenlp之UIE模型实战实体抽取使命【打车数据、快递单】
Paddlenlp之UIE分类模型【以情感倾向剖析新闻分类为例】含智能标示计划)
运用实践:分类模型大集成者[PaddleHub、Finetune、prompt]
Paddlenlp之UIE联系抽取模型【高管联系抽取为例】
PaddleNLP依据ERNIR3.0文本分类以中医疗查找检索词目的分类(KUAKE-QIC)为例【多分类(单标签)】
依据Ernie-3.0 CAIL2019法研杯要素辨认多标签分类使命
本项目链接:
依据ERNIR3.0文本分类:CAIL2018-SMALL罪名猜测为例(多标签)
0.前语:文本分类使命介绍
文本分类使命是自然语言处理中最常见的使命,文本分类使命简略来说就是对给定的一个句子或一段文本运用文本分类器进行分类。文本分类使命广泛运用于长短文本分类、情感剖析、新闻分类、事情类别分类、政务数据分类、产品信息分类、产品类目猜测、文章分类、论文类别分类、专利分类、案子描述分类、罪名分类、目的分类、论文专利分类、邮件主动标签、评论正负辨认、药物反应分类、对话分类、税种辨认、来电信息主动分类、投诉分类、广告检测、灵敏违法内容检测、内容安全检测、舆情剖析、论题标记等各类日常或专业领域中。
文本分类使命能够依据标签类型分为多分类(multi class)、多标签(multi label)、层次分类(hierarchical等三类使命,接下来咱们将以下图的新闻文本分类为例介绍三种分类使命的差异。
[外链图片转存失利,源站或许有防盗链机制,建议将图片保存下来直接上传(img-lBOf12nm-1658973778358)(ai-studio-static-online.cdn.bcebos.com/851cef351a9…)]
PaddleNLP采用AutoModelForSequenceClassification, AutoTokenizer供给了便利易用的接口,可指定模型名或模型参数文件途径通过from_pretrained() 方法加载不同网络结构的预练习模型,并在输出层上叠加一层线性层,且相应预练习模型权重下载速度快、安稳。Transformer预练习模型汇总包含了如 ERNIE、BERT、RoBERTa等40多个干流预练习模型,500多个模型权重。下面以ERNIE 3.0 中文base模型为例,演示怎么加载预练习模型和分词器:
from paddlenlp.transformers import AutoModelForSequenceClassification, AutoTokenizer
num_classes = 10
model_name = "ernie-3.0-base-zh"
model = AutoModelForSequenceClassification.from_pretrained(model_name, num_classes=num_classes)
tokenizer = AutoTokenizer.from_pretrained(model_name)
0.1 多标签使命介绍
文本多标签分类是自然语言处理(NLP)中常见的文本分类使命,文本多标签分类在各种实践场景中具有广泛的适用性,例如产品分类、网页标签、新闻标示、蛋白质功用分类、电影分类、语义场景分类等。多标签数据会集样本用来自 n_classes 个或许类别的 m 个标签类别标记,其间 m 的取值在 0 到 n_classes 之间,这些类别具有不彼此排斥的属性。一般,咱们将每个样本的标签用One-hot的方式表明,正类用 1 表明,负类用 0 表明。例如,数据会集样本或许标签是A、B和C的多标签分类问题,标签为 [1,0,1] 代表存在标签 A 和 C 而标签 B 不存在的样本。
在实践中的案情扑朔迷离,同一案子或许适用多项法律条文,触及数罪并罚,需求多标签模型充沛学习标签之间的关联性,对文本进行分类猜测。CAIL2018—SMALL数据集中罪名猜测使命数据来自“我国裁判文书网”揭露的刑事法律文书,包含19.6万份文书样例,其间每份数据由法律文书中的案情描述和现实部分组成,包含每个案子被告人被判的罪名,数据集共包含202项罪名,被告人罪名一般触及一项至多项。以数据会集某一法律文书为例:
"公诉机关指控,2009年12月18日22时许,被告人李某(已判刑)伙同被告人丁某、李某乙、李某甲、杨某某在永吉县岔路河镇夜宴歌厅唱完歌后离开,因之前对该歌厅服务生刘某某心怀不满,遂手持事前预备好的镐把、扎枪再次返回夜宴歌厅,在追赶殴伤刘某某过程中,恣意损毁歌厅内的笔记本电脑、调音台、麦克接收机等物品。被告人丁某用镐把随意将服务员齐某某头部打伤。经物价部门判定,笔记本电脑、调音台、麦克接收机总价值人民币7120.00元;经法医判定,齐某某左额部硬膜外血肿,构成重伤。被告人丁某、李某乙、李某甲、杨某某案发后外逃,后主动到公安机关投案。并以为,被告人丁某随意殴伤别人,致人重伤,其行为已构成××罪。被告人李某乙、李某甲、杨某某在公共场所持械随意殴伤别人,情节恶劣,恣意毁损别人资产,情节严重,其行为均已构成××罪,应予惩处。"
该案子中被告人触及故意伤害,寻衅滋事两项罪名。接下来咱们将解说怎么运用多标签模型,依据输入文本猜测案子所触及的一个或多个罪名。
0.2 文本分类运用全流程介绍
接下来,咱们将按数据预备、练习、功能优化布置等三个阶段对文本分类运用的全流程进行介绍。
- 数据预备
假如没有已标示的数据集,推荐doccano数据标示东西,怎么运用doccano进行数据标示并转化成指定格局本地数据集详见文本分类使命doccano运用指南。假如已有标示好的本地数据集,咱们需求依据不同使命要求将数据集收拾为文档要求的格局:多分类数据集格局要求、多标签数据集格局要求、层次分类数据集格局要求。
预备好数据集后,咱们能够依据现有的数据集规划或练习后模型体现挑选是否运用数据增强战略进行数据集扩大。
- 模型练习
数据预备完成后,能够开始运用咱们的数据集对预练习模型进行微调练习。咱们能够依据使命需求,调整可装备参数,挑选运用GPU或CPU进行模型练习,脚本默许保存在开发集最佳体现模型。中文使命默许运用”ernie-3.0-base-zh”模型,英文使命默许运用”ernie-2.0-base-en”模型,ERNIE 3.0还支撑多个轻量级中文模型,详见ERNIE模型汇总,能够依据使命和设备需求进行挑选。
首要咱们需求依据场景挑选不同的使命目录,具体能够见 多分类使命点击这儿 多标签使命点击这儿 层次分类使命点击这儿
练习结束后,咱们能够加载保存的最佳模型进行模型测验,打印模型猜测成果。
- 模型猜测
在实践布置场景中,咱们一般不仅对模型的精度体现有要求,也需求考虑模型功能上的体现。咱们能够运用模型裁剪进一步压缩模型体积,文本分类运用已供给裁剪API对上一步微调后的模型进行裁剪,模型裁剪之后会默许导出静态图模型。
模型布置需求将保存的最佳模型参数(动态图)导出成静态图参数,用于后续的推理布置。
文本分类运用供给了依据ONNXRuntime的本地布置predictor,而且支撑在GPU设备运用FP16,在CPU设备运用动态量化的低精度加快推理。
文本分类运用同时依据Paddle Serving的服务端布置计划。
本项目首要解说:数据预备、模型练习、模型猜测部分,关于布置部分篇幅有限,感兴趣同学能够跑一跑试一试。
参阅链接:
[github.com/PaddlePaddl…github.com/PaddlePaddl…
1.文本分类使命doccano运用指南【多分类、多标签、层次分类】
安装具体事宜参阅项目:
Paddlenlp之UIE分类模型【以情感倾向剖析新闻分类为例】含智能标示计划)
强烈推荐:数据标示渠道doccano—-简介、安装、运用、踩坑记载
这儿就不对安装等进行重复解说,默许都会。
具体参阅项目链接:
本项目链接:
依据ERNIR3.0文本分类:CAIL2018-SMALL罪名猜测为例(多标签)
2.依据ERNIR3.0文本分类使命模型微调
以下是本项目首要代码结构及说明:
├── train.py # 练习评估脚本
├── predict.py # 猜测脚本
├── export_model.py # 动态图参数导出静态图参数脚本
├── utils.py # 东西函数脚本
├── metric.py # metric脚本
├── prune.py # 裁剪脚本
├── prune_trainer.py # 裁剪trainer脚本
├── prune_config.py # 裁剪练习参数装备
├── requirements.txt # 环境依赖
└── README.md # 运用说明
以揭露数据集CAIL2018—SMALL中罪名猜测使命为示例,在练习集上进行模型微调,并在开发集上验证。
程序运行时将会主动进行练习,评估,测验。同时练习过程中会主动保存开发集上最佳模型在指定的 save_dir 中,保存模型文件结构如下所示:
checkpoint/
├── model_config.json
├── model_state.pdparams
├── tokenizer_config.json
└── vocab.txt
NOTE:
如需康复模型练习,则能够设置 init_from_ckpt , 如 init_from_ckpt=checkpoint/model_state.pdparams 。
如需练习中文文本分类使命,只需替换预练习模型参数 model_name 。中文练习使命推荐运用”ernie-3.0-base-zh”,更多可选模型可参阅Transformer预练习模型。
2.1.加载本地数据集
在许多状况,咱们需求运用本地数据集来练习咱们的文本分类模型,本项目支撑运用固定格局本地数据集文件进行练习。假如需求对本地数据集进行数据标示,能够参阅文本分类使命doccano数据标示运用指南进行文本分类数据标示。本项目将以CAIL2018-SMALL数据集罪名猜测使命为例进行介绍怎么加载本地固定格局数据集进行练习:
# !wget https://paddlenlp.bj.bcebos.com/datasets/cail2018_small_charges.tar.gz
!tar -zxvf cail2018_small_charges.tar.gz
!mv cail2018_small_charges data
本地数据集目录结构如下:
data/
├── train.txt # 练习数据集文件
├── dev.txt # 开发数据集文件
├── test.txt # 可选,测验练习集文件
├── label.txt # 分类标签文件
└── data.txt # 可选,待猜测数据文件
train.txt(练习数据集文件), dev.txt(开发数据集文件), test.txt(可选,测验练习集文件)中输入文本序列与标签数据用 ‘\t’ 分离隔,标签中多个标签之间用 ‘,’ 逗号 分离隔。
train.txt/dev.txt/test.txt 文件格局:
<输入序列1>'\t'<标签1>','<标签2>
<输入序列2>'\t'<标签1>
...
train.txt/dev.txt/test.txt 文件样例:
灵璧县人民检察院指控:××现实2014年11月29日1时许,被告人彭某甲驾驭辽A×××××小型轿车行进至辽宁省沈阳市于洪区太湖街赤色依据地酒店门口路段时,与前方被害人闻某驾驭的辽A×××××号轿车产生追尾的交通事故。事故产生后,被告人彭某甲与乘坐人韩某下车与闻某产生口角争执,并在一同互相厮打。在厮打过程中,彭某甲与韩某用拳头将闻某面部打伤。经判定,闻某的危害程度为轻伤二级。××现实2015年6月至2015年9月,被告人彭某甲通过其树立的“比特战役”微信群,将47部淫秽视频文件上传至该微信群供群成员观看。公诉机关针对指控供给了相关书证,证人证言,被害人陈述,被告人供述,判定定见,现场勘验查看笔录等依据,公诉机关以为,被告人彭某甲伙同别人故意不合法危害公民身体健康,致人轻伤;运用移动通讯终端传达淫秽电子信息,情节严重,其行为已触犯《中华人民共和国刑法》××××、××××、××××之规定,构成××罪、××罪,提请法院依法判处。 故意伤害,[制作、贩卖、传达]淫秽物品,传达淫秽物品
酉阳县人民检察院指控,2014年1月17日1时许,被告人周某某在酉阳县桃花源美食街万州烤鱼店外与田某甲产生口角,随后周某某持刀将在店内的被害人田某某砍伤。经重庆市酉阳县公安局物证判定室判定,田某某所受伤为轻伤二级。指控的依据有被告人立案决定书,户籍信息,判定定见,辨认笔录,被害人田某某的陈述,证人冉某、陈某某等人的证言,周某某的供述与辩解等。公诉机关以为,被告人周某某××别人身体,致人轻伤,其行为触犯了《中华人民共和国刑法》第二百三十四××的规定,犯罪现实清楚,依据确实、充沛,应当以××罪追究其刑事责任。周某某在××考验期内发现有其他罪没有判定的,适用《中华人民共和国刑法》××、六十九条。提请依法判定。 故意伤害,[组织、强迫、引诱、容留、介绍]卖淫,[引诱、容留、介绍]卖淫
...
label.txt(分类标签文件)记载数据会集一切标签调集,每一行为一个标签名。
label.txt 文件格局:
故意伤害
盗窃
风险驾驭
不合法[持有、私藏][枪支、弹药]
...
label.txt 文件样例:
故意伤害
盗窃
风险驾驭
不合法[持有、私藏][枪支、弹药]
...
data.txt(可选,待猜测数据文件)
data.txt 文件格局:
<输入序列1>
<输入序列2>
...
data.txt 文件样例:
经审理查明,2012年4月5日19时许,被告人王某在杭州市下城区朝晖路农贸市场门口贩卖盗版光碟、淫秽光碟时被民警当场捕获,并当场查获其贩卖的各类光碟5515张,其间5280张某属不合法出版物、235张某属淫秽物品。上述现实,被告人王某在庭审中亦无异议,且有经庭审举证、质证的扣押物品清单、赃物相片、公安行政处罚决定书、捕获通过及户籍证明等书证;证人胡某、徐某的证言;出版物判定书、淫秽物品查看判定书及查看笔录等依据证明,足以认定。
榆林市榆阳区人民检察院指控:2015年11月22日2时许,被告人王某某在自己经营的榆阳区长城福源招待所内,介绍并容留杨某向刘某某、白某向乔某某供给性服务各一次
...
2.2 模型猜测
#单卡练习
!python train.py --early_stop --epochs 10 --warmup --save_dir "./checkpoint" --batch_size 32 --dataset_dir "data/cail2018_small_charges"
[2022-07-27 15:03:55,267] [ INFO] - global step 530, epoch: 1, batch: 530, loss: 0.19550, micro f1 score: 0.01304, macro f1 score: 0.01056, speed: 0.60 step/s
[2022-07-27 15:04:12,334] [ INFO] - global step 540, epoch: 1, batch: 540, loss: 0.18821, micro f1 score: 0.01303, macro f1 score: 0.01053, speed: 0.60 step/s
[2022-07-27 15:04:29,497] [ INFO] - global step 550, epoch: 1, batch: 550, loss: 0.18063, micro f1 score: 0.01302, macro f1 score: 0.01051, speed: 0.59 step/s
[2022-07-27 15:04:46,820] [ INFO] - global step 560, epoch: 1, batch: 560, loss: 0.17561, micro f1 score: 0.01301, macro f1 score: 0.01049, speed: 0.59 step/s
[2022-07-27 15:05:04,307] [ INFO] - global step 570, epoch: 1, batch: 570, loss: 0.17048, micro f1 score: 0.01300, macro f1 score: 0.01046, speed: 0.58 step/s
[2022-07-27 15:05:22,099] [ INFO] - global step 580, epoch: 1, batch: 580, loss: 0.16223, micro f1 score: 0.01299, macro f1 score: 0.01044, speed: 0.57 step/s
[2022-07-27 15:05:39,808] [ INFO] - global step 590, epoch: 1, batch: 590, loss: 0.15865, micro f1 score: 0.01298, macro f1 score: 0.01041, speed: 0.58 step/s
[2022-07-27 15:05:57,613] [ INFO] - global step 600, epoch: 1, batch: 600, loss: 0.15361, micro f1 score: 0.01297, macro f1 score: 0.01039, speed: 0.57 step/s
[2022-07-27 15:06:15,583] [ INFO] - global step 610, epoch: 1, batch: 610, loss: 0.14710, micro f1 score: 0.01296, macro f1 score: 0.01037, speed: 0.57 step/s
[2022-07-27 15:06:33,658] [ INFO] - global step 620, epoch: 1, batch: 620, loss: 0.14317, micro f1 score: 0.01295, macro f1 score: 0.01034, speed: 0.56 step/s
[2022-07-27 15:06:51,894] [ INFO] - global step 630, epoch: 1, batch: 630, loss: 0.13964, micro f1 score: 0.01294, macro f1 score: 0.01032, speed: 0.56 step/s
[2022-07-27 15:07:10,206] [ INFO] - global step 640, epoch: 1, batch: 640, loss: 0.13328, micro f1 score: 0.01293, macro f1 score: 0.01030, speed: 0.56 step/s
[2022-07-27 15:07:28,673] [ INFO] - global step 650, epoch: 1, batch: 650, loss: 0.12832, micro f1 score: 0.01292, macro f1 score: 0.01028, speed: 0.55 step/s
[2022-07-27 15:07:47,244] [ INFO] - global step 660, epoch: 1, batch: 660, loss: 0.12585, micro f1 score: 0.01292, macro f1 score: 0.01026, speed: 0.55 step/s
[2022-07-27 15:08:05,915] [ INFO] - global step 670, epoch: 1, batch: 670, loss: 0.12514, micro f1 score: 0.01291, macro f1 score: 0.01024, speed: 0.55 step/s
[2022-07-27 15:08:24,775] [ INFO] - global step 680, epoch: 1, batch: 680, loss: 0.11939, micro f1 score: 0.01290, macro f1 score: 0.01021, speed: 0.54 step/s
[2022-07-27 15:08:43,779] [ INFO] - global step 690, epoch: 1, batch: 690, loss: 0.11547, micro f1 score: 0.01289, macro f1 score: 0.01019, speed: 0.54 step/s
[2022-07-27 15:09:02,844] [ INFO] - global step 700, epoch: 1, batch: 700, loss: 0.11291, micro f1 score: 0.01288, macro f1 score: 0.01017, speed: 0.53 step/s
[2022-07-27 15:09:22,234] [ INFO] - global step 710, epoch: 1, batch: 710, loss: 0.10988, micro f1 score: 0.01287, macro f1 score: 0.01015, speed: 0.53 step/s
[2022-07-27 15:09:41,752] [ INFO] - global step 720, epoch: 1, batch: 720, loss: 0.10556, micro f1 score: 0.01286, macro f1 score: 0.01013, speed: 0.52 step/s
[2022-07-27 15:10:01,621] [ INFO] - global step 730, epoch: 1, batch: 730, loss: 0.10424, micro f1 score: 0.01285, macro f1 score: 0.01011, speed: 0.51 step/s
[2022-07-27 15:10:21,675] [ INFO] - global step 740, epoch: 1, batch: 740, loss: 0.09951, micro f1 score: 0.01284, macro f1 score: 0.01009, speed: 0.51 step/s
[2022-07-27 15:10:41,949] [ INFO] - global step 750, epoch: 1, batch: 750, loss: 0.09677, micro f1 score: 0.01283, macro f1 score: 0.01007, speed: 0.50 step/s
[2022-07-27 15:11:02,267] [ INFO] - global step 760, epoch: 1, batch: 760, loss: 0.10009, micro f1 score: 0.01282, macro f1 score: 0.01005, speed: 0.50 step/s
[2022-07-27 15:11:22,657] [ INFO] - global step 770, epoch: 1, batch: 770, loss: 0.09277, micro f1 score: 0.01281, macro f1 score: 0.01003, speed: 0.50 step/s
样本集过大这边就部继续演示了,
可支撑装备的参数:
save_dir保存练习模型的目录;默许保存在当时目录checkpoint文件夹下。
dataset:练习数据集;默许为”cail2018_small”。
dataset_dir:本地数据集途径,数据集途径中应包含train.txt,dev.txt和label.txt文件;默许为None。
task_name:练习数据集;默许为”charges”。
max_seq_length:ERNIE模型运用的最大序列长度,最大不能超过512, 若出现显存缺乏,请恰当调低这一参数;默许为512。
model_name:挑选预练习模型;默许为”ernie-3.0-base-zh”。
device: 选用什么设备进行练习,可选cpu、gpu、xpu、npu。如运用gpu练习,择运用参数gpus指定GPU卡号。
batch_size:批处理巨细,请结合显存状况进行调整,若出现显存缺乏,请恰当调低这一参数;默许为32。
learning_rate:Fine-tune的最大学习率;默许为3e-5。
weight_decay:操控正则项力度的参数,用于避免过拟合,默许为0.00。
early_stop:挑选是否运用早停法(EarlyStopping);默许为False。
early_stop_nums:在设定的早停练习次序内,模型在开发集上体现不再上升,练习终止;默许为6。
epochs: 练习次序,默许为1000。
warmup:是否运用学习率warmup战略;默许为False。
warmup_steps:学习率warmup战略的steps数,假如设为2000,则学习率会在前2000 steps数从0慢慢增长到learning_rate, 然后再缓慢衰减;默许为2000。
logging_steps: 日志打印的间隔steps数,默许5。
seed:随机种子,默许为3。
2.2.1 点评目标界说
对点评目标进行阐述一下:
criterion = paddle.nn.BCEWithLogitsLoss()
metric = MetricReport() #得到F1 值 假如需求修正参阅多分类文章
micro_f1_score, macro_f1_score = evaluate(model, criterion, metric,
dev_data_loader)
能够看到功能目标首要关于F1值,具体我们能够参阅文档
本次运用的是metrics.py文件从sklearn库导入的:
from sklearn.metrics import f1_score, classification_report
如有额外需求能够,运用metrics1.py文件从sklearn库导入的:
from sklearn.metrics import roc_auc_score, f1_score, precision_score, recall_score
import numpy as np
from sklearn.metrics import roc_auc_score, f1_score, precision_score, recall_score
from paddle.metric import Metric
class MultiLabelReport(Metric):
"""
AUC and F1 Score for multi-label text classification task.
"""
def __init__(self, name='MultiLabelReport', average='micro'):
super(MultiLabelReport, self).__init__()
self.average = average
self._name = name
self.reset()
def f1_score(self, y_prob):
'''
Returns the f1 score by searching the best threshhold
'''
best_score = 0
for threshold in [i * 0.01 for i in range(100)]:
self.y_pred = y_prob > threshold
score = f1_score(y_pred=self.y_pred, y_true=self.y_true, average=self.average)
if score > best_score:
best_score = score
precison = precision_score(y_pred=self.y_pred, y_true=self.y_true, average=self.average)
recall = recall_score(y_pred=self.y_pred, y_true=self.y_true, average=self.average)
return best_score, precison, recall
def reset(self):
"""
Resets all of the metric state.
"""
self.y_prob = None
self.y_true = None
def update(self, probs, labels):
if self.y_prob is not None:
self.y_prob = np.append(self.y_prob, probs.numpy(), axis=0)
else:
self.y_prob = probs.numpy()
if self.y_true is not None:
self.y_true = np.append(self.y_true, labels.numpy(), axis=0)
else:
self.y_true = labels.numpy()
def accumulate(self):
auc = roc_auc_score(
y_score=self.y_prob, y_true=self.y_true, average=self.average)
f1_score, precison, recall = self.f1_score(y_prob=self.y_prob)
return auc, f1_score, precison, recall
def name(self):
"""
Returns metric name
"""
return self._name
具体细节参阅项目:
#多卡练习:
#unset CUDA_VISIBLE_DEVICES
#!python -m paddle.distributed.launch --gpus "0" train.py --early_stop --dataset_dir data
#运用多卡练习能够指定多个GPU卡号,例如 --gpus "0,1"
2.3 模型猜测
输入待猜测数据和数据标签对照列表,模型猜测数据对应的标签
运用默许数据进行猜测:
python predict.py --params_path ./checkpoint/
也能够挑选运用本地数据文件data/data.txt进行猜测:
!python predict.py --params_path ./checkpoint/ --dataset_dir data/cail2018_small_charges
输入样本:
经审理查明,2012年4月5日19时许,被告人王某在杭州市下城区朝晖路农贸市场门口贩卖盗版光碟、淫秽光碟时被民警当场捕获,并当场查获其贩卖的各类光碟5515张,其间5280张某属不合法出版物、235张某属淫秽物品。上述现实,被告人王某在庭审中亦无异议,且有经庭审举证、质证的扣押物品清单、赃物相片、公安行政处罚决定书、捕获通过及户籍证明等书证;证人胡某、徐某的证言;出版物判定书、淫秽物品查看判定书及查看笔录等依据证明,足以认定。
榆林市榆阳区人民检察院指控:2015年11月22日2时许,被告人王某某在自己经营的榆阳区长城福源招待所内,介绍并容留杨某向刘某某、白某向乔某某供给性服务各一次。
静乐县人民检察院指控,2014年8月30日15时许,静乐县苏坊村乡民张某某因占地问题去苏坊村半切沟静静铁路第五标施工地点阻拦施工时,遭被告人王某某阻挠,张某某打电话叫来儿子李某某,李某某看到张某某躺在地上,打了王某某一耳光。所以王某某指派工人殴伤李某某,致李某某受伤。经忻州市公安司法判定中心判定,李某某的危害评定为轻伤一级。李某某被打伤后,被告人王某某为躲避法律追究,找就任某某,指派任某某作实施××的伪证,并承诺每月给1万元。同时王某某指派工人王某甲、韩某某去丰盈派出所作由任某某打伤李某某的伪证,导致任某某被静乐县公安局以涉嫌××罪刑事拘留。公诉机关以为,被告人王某某的行为触犯了《中华人民共和国刑法》××、《中华人民共和国刑法》××××之规定,应以××罪和××罪追究其刑事责任,数罪并罚。
输出成果:自行运行一下
3. 结论
相关项目链接:
Paddlenlp之UIE模型实战实体抽取使命【打车数据、快递单】
Paddlenlp之UIE分类模型【以情感倾向剖析新闻分类为例】含智能标示计划)
运用实践:分类模型大集成者[PaddleHub、Finetune、prompt]
Paddlenlp之UIE联系抽取模型【高管联系抽取为例】
PaddleNLP依据ERNIR3.0文本分类以中医疗查找检索词目的分类(KUAKE-QIC)为例【多分类(单标签)】
依据Ernie-3.0 CAIL2019法研杯要素辨认多标签分类使命
本项目首要解说了犯罪名猜测使命、以及doccano标示指南(关于多分类多标签问题),和对功能目标的简略讨论,能够看到实践更多问题是关于多标签分类的。
欢迎我们关注我的主页:aistudio.baidu.com/aistudio/us…
以及博客:blog.csdn.net/sinat_39620…