一种面向大规模语言模型的深度学习模型训练方法及系统与流程
未命名
08-29
阅读:86
评论:0

1.本发明涉及语言学习技术领域,尤其涉及一种面向大规模语言模型的深度学习模型训练方法及系统。
背景技术:
2.深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本等数据。在语言学习时,也能够通过深度学习模型的训练流程,按照以往经验,一个深度学习模型的训练流程包括经过以下步骤:编写代码,安装环境,本地试运行,服务器运行,服务器代码调参,跟踪训练结果。
3.目前的深度学习模型的训练方式一般是从头学习或根据以往的学习数据来适配学习内容,但是对于有一些有学习基础而又没有学习数据的学生,导致其无法快速适配对应的学习内容进行学习,不仅适用性差,而且学习语言的效率低。
4.因此,有必要提供一种新的面向大规模语言模型的深度学习模型训练方法及系统解决上述技术问题。
技术实现要素:
5.为解决上述技术问题,本发明提供一种面向大规模语言模型的深度学习模型训练方法及系统,在学习过程中,通过进行预测试,并根据预测试成绩,训练服务器能够从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,从而对于有一些基础的而又没有学习数据的学者,能够使其快速对应学习,不仅提高了适用性,而且降低了学习语言的用时,从而提高了学习语言的效率。
6.本发明提供的面向大规模语言模型的深度学习模型训练方法及系统,包括以下步骤:
7.s1、将面向大规模语言模型的有关训练数据导入到文件服务器中,训练服务器中预安装训练环境;
8.s2、在显示有控制界面的显示终端进行预测试,并得出预测试成绩,预测试成绩通过消息队列接收的方式传入到所述训练服务器;
9.s3、根据得出的预测试成绩,训练服务器从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,在进行显示终端进行训练;
10.s4、训练完成后,在显示终端对训练成果进行测试,得出测试成绩,并判断是否合格,不合格则重新进行训练。
11.需要说明的是:本发明在使用时,由于训练服务器中预安装有训练环境,从而在深度学习时,只需要将面向大规模语言模型的有关训练数据导入到文件服务器中即刻利用显示终端进行训练,不需要安装和部署环境,相比原有的部署方式,大大提高了安装的效率,在学习过程中,通过进行预测试,并根据预测试成绩,训练服务器能够从文件服务器中调用
预先导入在所述文件服务器中的训练数据,生成对应的训练模型,从而对于有一些基础的而又没有学习数据的学者,能够使其快速对应学习,不仅提高了适用性,而且提高了学习语言的效率,而通过训练后的测试,能够很好的检测学习的情况,未能通过检测则无法进行后续的学习,需重新学习再测试,通过后才能进行后续的学习,从而能够保证学者学习通过。
12.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述深度学习模型训练过程所产生的训练数据储存在所述文件服务器中。
13.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述文件服务器通过所述控制界面显示所述训练数据。
14.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述控制界面还包括训练参数调整选项,调整参数通过消息队列接收的方式传入到所述训练服务器,根据消息,训练服务器从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,在进行显示终端进行训练。
15.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述训练模型的生成采用卷积神经网络模型、深度信念网络模型、深度玻尔兹曼机模型或堆叠自动编码器模型。
16.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述训练参数调整选项包括学习速率调整选项和迭代次数选项。
17.在发明提供的面向大规模语言模型的深度学习模型训练方法中,预安装的所述训练环境中已提供相关的依赖组件或软件。
18.一种面向大规模语言模型的深度学习模型系统,包括训练服务器、文件服务器和显示终端,训练服务器分别与文件服务器和显示终端连接,显示终端和文件服务器连接。
19.需要说明的是:在使用时,本由于训练服务器中预安装有训练环境,从而在深度学习时,只需要将面向大规模语言模型的有关训练数据导入到文件服务器中即刻利用显示终端进行训练,不需要安装和部署环境,相比原有的部署方式,大大提高了安装的效率。
20.在发明提供的面向大规模语言模型的深度学习模型系统中,所述训练服务器内预安装有训练环境,文件服务器存储有训练数据,显示终端显示有控制界面。
21.与相关技术相比较,本发明提供的面向大规模语言模型的深度学习模型训练方法及系统具有如下有益效果:
22.1、本发明提供一种面向大规模语言模型的深度学习模型系统,在深度学习时,只需要将面向大规模语言模型的有关训练数据导入到文件服务器中即刻利用显示终端进行训练,不需要安装和部署环境,相比原有的部署方式,大大提高了安装的效率。
23.2、本发明提供一种面向大规模语言模型的深度学习模型方法,在学习过程中,通过进行预测试,并根据预测试成绩,训练服务器能够从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,从而对于有一些基础的而又没有学习数据的学者,能够使其快速对应学习,不仅提高了适用性,而且降低了学习语言的用时,从而提高了学习语言的效率。
24.3、本发明提供一种面向大规模语言模型的深度学习模型方法,在学习过程中,通过训练后的测试,能够很好的检测学习的情况,未能通过检测则无法进行后续的学习,需重新学习再测试,通过后才能进行后续的学习,从而能够保证学者学习通过。
附图说明
25.图1为本发明提供的面向大规模语言模型的深度学习模型训练方法的步骤流程图;
26.图2为本发明提供的面向大规模语言模型的深度学习模型系统的方框图。
具体实施方式
27.下面结合附图和实施方式对本发明作进一步说明。
28.请结合参阅图1和图2,其中,图1为本发明提供的面向大规模语言模型的深度学习模型训练方法的步骤流程图;图2为本发明提供的面向大规模语言模型的深度学习模型系统的方框图。
29.请参考图1所示,一种面向大规模语言模型的深度学习模型训练方法,包括以下步骤:
30.s1、将面向大规模语言模型的有关训练数据导入到文件服务器中,训练服务器中预安装训练环境;
31.s2、在显示有控制界面的显示终端进行预测试,并得出预测试成绩,预测试成绩通过消息队列接收的方式传入到所述训练服务器;
32.s3、根据得出的预测试成绩,训练服务器从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,在进行显示终端进行训练;
33.s4、训练完成后,在显示终端对训练成果进行测试,得出测试成绩,并判断是否合格,不合格则重新进行训练。
34.需要说明的是:本发明在使用时,由于训练服务器中预安装有训练环境,从而在深度学习时,只需要将面向大规模语言模型的有关训练数据导入到文件服务器中即刻利用显示终端进行训练,不需要安装和部署环境,相比原有的部署方式,大大提高了安装的效率,在学习过程中,通过进行预测试,并根据预测试成绩,训练服务器能够从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,从而对于有一些基础的而有没有学习数据的学者,能够使其快速对应学习,不仅提高了适用性,而且提高了学习的效率,而通过训练后的测试,能够很好的检测学习的情况,未能通过检测则无法进行后续的学习,从而能够保证学者学习通过。
35.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述深度学习模型训练过程所产生的训练数据储存在所述文件服务器中,在使用时,能够方便的储存训练数据。
36.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述文件服务器通过所述控制界面显示所述训练数据,从而在使用过程中,能够方便的查看训练数据。
37.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述控制界面还包括训练参数调整选项,调整参数通过消息队列接收的方式传入到所述训练服务器,根据消息,训练服务器从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,在进行显示终端进行训练,在使用时,能够方便的调整训练模型。
38.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述训练模型的生成采用卷积神经网络模型、深度信念网络模型、深度玻尔兹曼机模型或堆叠自动编码器
模型,在使用时,能够产生适应的学习模型。
39.在发明提供的面向大规模语言模型的深度学习模型训练方法中,所述训练参数调整选项包括学习速率调整选项和迭代次数选项,在使用时,方便调整学习速率。
40.在发明提供的面向大规模语言模型的深度学习模型训练方法中,预安装的所述训练环境中已提供相关的依赖组件或软件,在使用时,方便安装使用。
41.综上所述,面向大规模语言模型的深度学习模型训练方法,具有至少以下
42.有益效果:
43.1、本发明提供一种面向大规模语言模型的深度学习模型方法,在学习过程中,通过进行预测试,并根据预测试成绩,训练服务器能够从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,从而对于有一些基础的而又没有学习数据的学者,能够使其快速对应学习,不仅提高了适用性,而且降低了学习语言的用时,从而提高了学习语言的效率。
44.2、本发明提供一种面向大规模语言模型的深度学习模型方法,在学习过程中,通过训练后的测试,能够很好的检测学习的情况,未能通过检测则无法进行后续的学习,需重新学习再测试,通过后才能进行后续的学习,从而能够保证学者学习通过。
45.请参考图2所示,一种面向大规模语言模型的深度学习模型系统,包括训练服务器、文件服务器和显示终端,训练服务器分别与文件服务器和显示终端连接,显示终端和文件服务器连接。
46.在发明提供的面向大规模语言模型的深度学习模型系统中,所述训练服务器内预安装有训练环境,文件服务器存储有训练数据,显示终端显示有控制界面。
47.需要说明的是:在使用时,由于训练服务器中预安装有训练环境,从而在深度学习时,只需要将面向大规模语言模型的有关训练数据导入到文件服务器中即刻利用显示终端进行训练,不需要安装和部署环境,相比原有的部署方式,大大提高了安装的效率。
48.综上所述,面向大规模语言模型的深度学习模型训练系统,具有至少以下
49.有益效果:
50.1、本系统在使用时,由于训练服务器中预安装有训练环境,从而在深度学习时,只需要将面向大规模语言模型的有关训练数据导入到文件服务器中即刻利用显示终端进行训练,不需要安装和部署环境,相比原有的部署方式,大大提高了安装的效率。
51.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
52.以上所述之实施例仅为本发明的较佳实施例,并非对本发明做任何形式上的限制,任何熟悉本领域的技术人员,在不脱离本发明技术方案范围情况下,利用上述揭示的技术内容对本发明技术方案作出更多可能的变动和润饰,或修改均为本发明的等效实施例,故凡未脱离本发明技术方案的内容,依据本发明之思路所作的等同等效变化,均应涵盖于本发明的保护范围,且以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。
技术特征:
1.一种面向大规模语言模型的深度学习模型训练方法,其特征在于,包括以下步骤:s1、将面向大规模语言模型的有关训练数据导入到文件服务器中,训练服务器中预安装训练环境;s2、在显示有控制界面的显示终端显示对应语言学习的预置试题,进行预测试,并得出预测试成绩,预测试成绩通过消息队列接收的方式传入到所述训练服务器;s3、根据得出的预测试成绩对应成绩划分等级,训练服务器从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应等级的预置训练模型,在显示终端进行训练;s4、训练完成后,在显示终端对训练成果进行测试,得出测试成绩,并判断是否合格,不合格则重新进行训练。2.根据权利要求1所述的面向大规模语言模型的深度学习模型训练方法及系统,其特征在于,所述深度学习模型训练过程所产生的训练数据储存在所述文件服务器中。3.根据权利要求2所述的面向大规模语言模型的深度学习模型训练方法及系统,其特征在于,所述文件服务器通过所述控制界面显示所述训练数据。4.根据权利要求1所述的面向大规模语言模型的深度学习模型训练方法及系统,其特征在于,所述控制界面还包括训练参数调整选项,调整参数通过消息队列接收的方式传入到所述训练服务器,根据消息,训练服务器从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,在进行显示终端进行训练。5.根据权利要求1所述的面向大规模语言模型的深度学习模型训练方法及系统,其特征在于,所述训练模型的生成采用卷积神经网络模型、深度信念网络模型、深度玻尔兹曼机模型或堆叠自动编码器模型,预置试题为事先指定的。6.根据权利要求4所述的面向大规模语言模型的深度学习模型训练方法及系统,其特征在于,所述训练参数调整选项包括学习速率调整选项和迭代次数选项。7.根据权利要求1所述的面向大规模语言模型的深度学习模型训练方法及系统,其特征在于,预安装的所述训练环境中已提供相关的依赖组件或软件。8.一种面向大规模语言模型的深度学习模型系统,其特征在于,包括训练服务器、文件服务器和显示终端,训练服务器分别与文件服务器和显示终端连接,显示终端和文件服务器连接。9.根据权利要求8所述的面向大规模语言模型的深度学习模型系统,其特征在于,所述训练服务器内预安装有训练环境,文件服务器存储有训练数据,显示终端显示有控制界面。
技术总结
本发明提供一种面向大规模语言模型的深度学习模型训练方法及系统。所述面向大规模语言模型的深度学习模型训练方法,包括以下步骤:S1、将面向大规模语言模型的有关训练数据导入到文件服务器中,训练服务器中预安装训练环境;S2、在显示有控制界面的显示终端进行预测试,并得出预测试成绩。本发明提供的面向大规模语言模型的深度学习模型训练方法,在学习过程中,通过进行预测试,并根据预测试成绩,训练服务器能够从文件服务器中调用预先导入在所述文件服务器中的训练数据,生成对应的训练模型,从而对于有一些基础的而又没有学习数据的学者,能够使其快速对应学习,不仅提高了适用性,而且降低了学习语言的用时,从而提高了学习语言的效率。学习语言的效率。学习语言的效率。
技术研发人员:杨娟 王博 于政 翟士丹
受保护的技术使用者:北京海致星图科技有限公司
技术研发日:2023.05.04
技术公布日:2023/8/28
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/