此篇博客实现的论文已发表在CSSCI期刊《科学决策》上,如该篇文章对您有帮助,欢迎引用。
梁宇奇,赵云辉,付星星,等.企业包容性创新的测度:基于大语言模型的新方法[J].科学决策,2024,(12):86~99
金星晔等在《经济研究》2024年第3期发表了一篇题为《企业数字化转型的测度难题:基于大语言模型的新方法与新发现》,使用ERNIE模型,替代了传统以词频为依据的企业数字化转型变量的测量方法,本篇博客的目的就在于复现该篇论文的方法。
注:如果仅仅是需要这篇论文的数字化转型数据,可以去聂辉华老师2024年8月20日的微博中寻找下载链接。
金星晔,左从江,方明月,等.企业数字化转型的测度难题:基于大语言模型的新方法与新发现[J].经济研究,2024,59(3):34-53.
这篇论文在方法上的创新确实解决了词频方法的种种弊端,不过技术实现难度不大。简而言之就是用成熟的预训练模型,导入自己打好标签的语料库进行微调,再用训练好的模型完成文本分类任务,其实里边人工标注的时间才是最大的。
论文中使用的ERNIE模型也不一定在所有情境下都是最优的,百度飞桨其实也做的不成熟,目前来看使用Google最原始的BERT模型,基于Pytorch框架来的成熟,网上教程也更多。
因此,本篇博客面向零基础、弱基础的经管学生,提供一套易上手方法,使用Pytorch框架和BERT模型对该论文进行复现,同时也提供基于ERNIE模型的复现思路。
我使用的是windows10,显卡是cpu版本,在Anaconda3中的spyder中运行,python版本是3.9.12,以上硬件配置和软件环境对代码运行的影响较小,自行下载Anaconda安装运行即可。
最主要的依赖库有3个,一个是Pytorch(2.0.0)版本,提供基本的模型训练,另一个是transformers(4.26.1),还需要一个openpyxl(3.0.9)。
注:以上依赖库建议使用我所使用的版本,其他新版本可能出错。
下载方式:打开Anaconda3目录下的Anaconda Powershell Prompt,依次输入下方命令即可完成依赖库的安装,会提示successfully install。
WPS office的电脑版下载的方法怎么找
如果已经提前安装过了这两个库,可以先用uninstall卸载掉这两个库。
其他依赖库,例如pandas、numpy、os等,一般使用Anaconda3自带的版本即可。
做这个工作之前,我试过了网上很多方法,由于环境难配置、报错无法解决、流程不完整等原因,付出了大量的沉默成本,最后机缘巧合搜到了下方这篇博客,用一下午就完成了所有工作。
wps office的免费版的下载网站在哪里
博客链接:【文本分类】利用bert-base-chinese训练自己的模型完成中文文本分类任务(pytorch实现)
下边复现上边这篇博客,如果此步跑通,基本就成功了一大半。
为不侵犯该博主的知识产权,请进入上述博客,从该博客里的链接中下载所有代码、示例数据集以及预训练的中文Bert模型。
具体下载方式为:WPS office的官网的下载地方是什么
1.点击下载仓库,访问该博主的github主页,如果访问不了使用csdn加速器的github加速功能,进入后下载打包好后的zip压缩包,解压。
2.在解压后的文件夹里新建一个空文件夹,命名为bert-base-chinese,点击bert-base-chinese镜像下载,下载该页面所有文件(包含4个大文件,耐心等待)至该文件夹。
3.在解压后的文件夹里新建一个空文件夹,命名为bert_checkpointWPS office电脑版下载的地址在哪里。
示例数据还是比较大的,体量有20w,如果显卡不是gpu版本,运行速度会特别慢,没必要在示例数据上边浪费过多时间,因此可以进入THUCNews文件夹,打开里边的train.txt(训练集),test.txt(测试集),dev.txt(验证集),删除掉里边大部分的数据。
我的显卡是cpu,训练集保留了1500条左右,测试集和验证集保留了200条左右,epoch为5时训练时间在20分钟左右,准确率在0.84左右。
注:可以每种标签都保留一定数量,这样准确率不会太低
1.使用Spyder打开bert_train.py,运行。
该文件里的训练超参数部分可以更改数值,建议只对epoch值进行修改。该过程可能要持续一段时间,控制台会输出训练过程。训练好的模型保存在bert_checkpoint文件夹中。其中best.pt是准确率最高的模型文件,last.pt是最后一轮 epoch得到的模型文件,如果最后一轮准确率最高,二者就完全相同。2.打开bert_test.py,运行。
调用best.pt,运用验证集验证该模型的效果,输出该模型的准确率。3.打开bert_tuili.py,运行。
调用best.pt,使用单个句子进行预测,验证该模型是否可以对其他句子进行分类,检验模型效果。如果出现了关于input函数的报错,可以直接将while True后的代码改为下方代码,在text里输入待预测句子即可。
其实可以通过马克数据网、咸鱼等途径直接获取到txt文件,该步骤可以跳过。。
在此留下我基于巨潮资讯网获取年报pdf链接、批量下载和pdf转txt的博客地址,根据个人需求进行修改。
pdf链接获取:https://blog.csdn.net/weixin_43956523/article/details/137409841
从excel中批量下载:https://blog.csdn.net/weixin_43956523/article/details/136265883?spm=1001.2014.3001.5501
pdf转txt:https://blog.csdn.net/weixin_43956523/article/details/124217368
其实也可以通过上述途径直接获取到txt文件,该步骤可以跳过。
但我感觉这些途径获取到的数据似乎忽略了董事会报告部分,所以写了一个代码,可以自行选择是否使用。一些做文本分析的经管类文章里在介绍时简单得用“MD&A”(即管理层讨论与分析)部分作为文本分析样本,但实际上在很多年报中并无叫该名的章节,可能还会叫董事会报告等一系列名称,所以按照下方文献的思路,重新编制代码,提取相应部分。

[1]姚加权,张锟澎,郭李鹏,等.人工智能如何提升企业生产效率?——基于劳动力技能结构调整的视角[J].管理世界,2024,40(2):101-116+133+117-122.
因代码较为复杂,完整代码的分模块分析见博客:
https://blog.csdn.net/weixin_43956523/article/details/140712274?spm=1001.2014.3001.5501
根据句号和分号分隔文本,并根据文献,确定自己的词典,借助Python内置的jieba中文分词库对语句进行分词,筛选出含有关键词的语句,构建待标记词库,保存为excel,具体代码思路详见注释。
这里只需要统一标记标准,安排研究人员标记即可。
切记要标记准确,不然会严重影响模型的分类性能。
篇幅最小,但费时最多。
在训练前,需要按照一定比例(代码中为8:1:1),需要把py文件和excel放在同一文件夹下,生成的txt文件也会在同个文件夹下
复制粘贴一遍原THUCNews文件夹,改成自定义的名字,将上一步骤产生的txt文件剪切到新文件夹下,替换掉原先的train.txt、val.txt、test.txt,并将class.txt中的信息,按照0到N的标记顺序,修改为新标签的含义wps电脑版下载网站是什么。
打开bert_get_data.py,将下图中打码的部分,改成新文件夹自定义的名字,保证训练集、验证集、测试集的路径对应准确。
WPS office电脑版的下载的网址在哪里
在bert_tarin.py中将epoch(迭代次数)改成自己想要的次数,这是为了让模型多训练几次从而观察参数选择预测性能相对最优的模型。
同时把保存最优的模型这一块代码注释掉(原代码仅根据验证集的准确率选择最优模型,未考虑loss值和在测试集上的表现,过于直接),改为将每个模型都保存下来,以备进行测试集上的参数评估。
注意:若如此操作,需要留足400M×epoch的存储空间
训练过程示例如下图,建议将每个epoch的四个参数都记录下来wps的官网下载地址是多少,作为模型评估标准

使用下述代码(适用于二分类,0-1) ,可以通过修改模型文件名依次计算每个epoch生成的模型的精准率、召回率、准确率、F1、F0.8五项指标,相关含义可以自行搜索,一般认为最重要的指标是精准率。
三分类(1-2-3)指标计算代码如下,更多分类可以寻找规律自行修改。
需要注意,多分类中,准确率(accuracy)计算的是全验证集,而其他四项指标计算的是某一类的预测性能。
8.4.1 验证集上的表现
1.train loss 下降,val loss下降: 表明网络还在学习
2. train loss下降,val loss稳定:网络过拟合
3.train loss稳定,val loss下降:数据集有问题
4.train loss稳定,val loss稳定:可能已经收敛,或者学习遇到瓶颈,可以调小学习率试试
5.train loss上升,val loss上升:网络结构设计有问题,或者训练参数设置不当等,及时停止学习,调整代码
一般来说,如果到最后一次 ,模型的参数值仍比较稳定,那就选择最后一次的模型,如果中间出现了loss值的较大波动,则选择波动前的最后一次
参考:https://blog.csdn.net/qq_36230981/article/details/129216625
8.4.2 测试集上的表现
主要观察精准率和f1-score的变化趋势 ,结合考虑其他指标进行最优选择。
此处只需要改写bert_tuili.py文件,将其由单个预测变成批量预测,并将结果录入excel表格即可。大概速度在1分钟4-5份年报,如果年报较多可能速度会比较慢。
如果不是一次性运行完,可以将结果复制到新表中后关闭,随后调整start和end值进行下一阶段的运行
放一个我修改后的版本。
金老师的论文里是对比ERNIE和BERT模型,以及传统的机器学习方法的准确率,从而确定使用ERNIE模型,所以在此提供基于ERNIE模型的复现思路。
其实使用不同模型,本质上只是预训练模型的不同,所以只需要更换预训练模型文件即可。
在下方链接的描述中,有作者提供的ERNIE的预训练模型文件的网盘地址,可以自行下载。
https://gitcode.com/649453932/Bert-Chinese-Text-Classification-Pytorch?utm_source=csdn_github_accelerator&isLogin=1
该地址其实是我第一次尝试的代码,跑通了但是缺少了最后预测的这一步
下载后,在代码的同级目录下,新建一个文件夹,命名为ERNIE,将下载好的预训练模型文件(pytorch_model.bin)放到该文件夹,,并从bert-base-chinese文件夹中复制一份其他文件至该文件夹即可。并新建一个文件夹,命名为ERNIE_checkpoint
随后将bert_get_data.py、bert_tuili.py中的bert_name改为’https://blog.csdn.net/weixin_43956523/article/details/ERNIE’,bert_train.py、bert_test.py、bert_tuili.py中的save_path全改为’https://blog.csdn.net/weixin_43956523/article/details/ERNIE_checkpoint’,重复2.2中的步骤即可。