开始构建我们自己的大语言模型:数据处理部分

07-19 593阅读

关注本专栏(NLP简论:手搓大语言模型实践) 继续学习从头编写、训练自己的大语言模型。

开始构建我们自己的大语言模型:数据处理部分
(图片来源网络,侵删)

接上集,本章我们将深入说一下大语言模型数据处理部分的细节,并直接提供本部分的完整代码。

【配套资源】

暂时的词汇表:内部配套资料-LX2中文词汇表下载

*

在后面我们会根据需求微调

1. 数据准备

首先,我们需要准备原始文本数据。这些数据可以来自各种来源,如书籍、网页、社交媒体等。在处理这些数据之前,确保它们已经被清洗过,去除了噪声和无关内容。

暂时用不到所以不提供配套资源,后面会提供。

*

2. 词汇表构建

在构建大语言模型时,我们需要将文本转换为模型可以理解的数字形式。这通常通过构建一个词汇表(即Vocabulary)来实现(上一章我们提到过),词汇表中的每个词(或字符)都对应一个唯一的数字(我们成为索引)。

参考代码:

vocab = "abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ.,!?;'"  # 示例词汇表,之后要用到的中文版大型词汇表见【配套资源】。
char2idx = {u: i for i, u in enumerate(vocab)}  # 将每个字对应到数字
idx2char = np.array(vocab)  # 将数字对应到每个字
# 打印部分词汇表以验证
print('{')
for char, _ in zip(char2idx, range(20)):
    print(f'  {repr(char)}: {char2idx[char]},')
print('  ...\n}')

3. 文本预处理

文本预处理是数据处理中的关键步骤,包括分词、去除停用词、词干提取等。在大语言模型中,由于我们通常在字符级别或子词级别操作,所以这些步骤可能相对简单。但是,我们仍然需要处理一些特殊字符,如换行符、制表符等。

4. 文本编码

将文本转换为模型可以处理的数字序列。这通常通过查找词汇表中每个字符的索引来实现。

5. 序列划分

由于大语言模型通常使用序列到序列(Seq2Seq)的学习方式,我们需要将长文本划分为多个较短的序列,每个序列包含一个输入部分和一个目标部分。这通常通过滑动窗口的方式实现。我们之前提到过,模型输入一段文本(序列)推理下一个token(这里是一个字)。

拓展知识(理解不了就不用理解了)


问:

为什么训练数据的X和y都是序列,按照之前说的,不应该是x是序列,y是序列的下一个token吗?

答:

在训练循环神经网络(RNN)时,我们通常使用教师强制(Teacher Forcing)技术。这意味着在每个时间步,模型的输入不仅包括来自上一时间步的隐藏状态,而且还包括来自训练数据集的真实下一个token,而不是模型自己在上一步预测的token。

*

例如,如果我们有一个训练序列 “abcd”,并且我们的目标是预测序列的下一个字符,那么目标序列将是"bcde"。在训练过程中,对于每一个时间步,我们都会给模型提供正确的下一个字符,而不是让模型基于自己的预测来做出下一步的预测。

*

具体来说,这是训练时的输入和目标是如何匹配的:

*

时间步1:输入是 “a”,目标是 “b”

时间步2:输入是 “b”,目标是 “c”

时间步3:输入是 “c”,目标是 “d”

时间步4:输入是 “d”,目标是 “e”

*

在这个过程中,模型的目标是在每个时间步预测出序列中的下一个字符。由于使用了教师强制,模型在每个时间步都得到了正确的输入,这有助于模型学习序列中的模式。但是,这种方法的一个潜在问题是,如果在推理阶段模型的预测出现错误,这个错误可能会在后续的预测中累积,因为模型现在是在用自己的预测作为输入,而不是真实的序列数据。

因此,训练和预测之间的主要区别在于,训练时使用教师强制提供正确的下一个token,而在预测时模型需要依靠自己的预测来决定后续的输入。


参考函数split_input_target:

def split_input_target(chunk):
    input_text = chunk[:-1]  # 输入文本为当前序列除最后一个字符外的所有字符
    target_text = chunk[1:]  # 目标文本为当前序列从第二个字符开始的所有字符
    return input_text, target_text

6. 数据集准备

将处理好的数据转换为TensorFlow数据集格式,以便进行高效的批处理和训练。

参考代码片段:

import tensorflow as tf
# 假设 BUFFER_SIZE 和 BATCH_SIZE 已经定义
BUFFER_SIZE = 50000
BATCH_SIZE = 64
# 假设 vocab_size, embedding_dim, rnn_units, window 这里就不做定义了
# vocab_size:词汇表大小(有多少个token)
# embedding_dim:编码层维度(从几个维度理解token们)
# rnn_units:RNN(上面拓展知识提到过)层的神经元数量
# window:模型上下文长度(模型基于多长的原文预测下一个token)
# 加载保存的数据集
def load_dataset(path):
    dataset = tf.data.experimental.load(path)
    return dataset
# 加载数据集
dataset = load_dataset(r'path_to_your_dataset')
# 具体代码见文末

7. 注意事项

  • 数据清洗:确保数据干净,无噪声。
  • 内存管理:处理大型数据集时,注意内存使用,避免内存溢出。
  • 数据增强:如果数据量不足,可以考虑数据增强技术。
  • 效率优化:优化数据处理流程,提高训练效率。

    通过以上步骤,我们可以为构建大语言模型准备好干净、高效的数据集。接下来,就可以进入模型构建和训练阶段了。

    本部分完整代码:

                                                
    def train(
        mt=3,
        big_file=False,#是否采用大文件加载策略
        #微调数据集
        path_to_file = r'en_novel.txt',
        ntype_='_en',#保存为微调模型名称
        #设置vocab版本
        vtype_='_lx',#type_#
        fen=50,#数据量分几份
        fwidx=0,#第几份
        BATCH_SIZE = 64,
        loadmodel=False,
        pass_=-1,
        ste=0,
        ):'''
        多出的参数不必理会,后面会用到
        '''
        global LR,param_data,p_ntype
        p_ntype=ntype_
        
        if ntype_[0]!='_':ntype_='_'+ntype_
        type_=ntype_
        print('path_to_file',path_to_file)
        print('LR',LR)
        
        import os
        #dataset与vocab是配对的!
        if not os.path.exists(r'E:\小思框架\论文\ganskchat\vocab'+vtype_+'.txt'):
            raise Exception("can't reading vocab from "+r'E:\小思框架\论文\ganskchat\vocab'+vtype_+'.txt')
        else:
            with open('E:\\小思框架\\论文\\ganskchat\\vocab'+vtype_+'.txt','r',encoding='utf-8') as f:
                vocab=eval(f.read())
        UNK=0
        unkli=[]
        
        char2idx = {u:i for i, u in enumerate(vocab)}
        idx2char = np.array(vocab)
        print('{')
        for char,_ in zip(char2idx, range(20)):
            print('  {:4s}: {:3d},'.format(repr(char), char2idx[char]))
        print('  ...\n}')
        # 设定每个输入句子长度的最大值
        seq_length = dic[mt][2]
        
        def split_input_target(chunk):
            input_text = chunk[:-1]
            target_text = chunk[1:]
            return input_text, target_text
    
        import tensorflow as tf
        import pickle
        # 假设 BATCH_SIZE 和 BUFFER_SIZE 已经定义好
        if 1:
            # 设定缓冲区大小,以重新排列数据集
            BUFFER_SIZE = 50000
        # 词集的长度
        vocab_size = len(vocab)
        # 嵌入的维度
        embedding_dim = dic[mt][0]#int(1024*2*1)
        # RNN 的单元数量
        rnn_units = dic[mt][1]#int(1024*4*2)
        window = dic[mt][2]
        # 加载保存的数据集
        def load_dataset(path):
            dataset = tf.data.experimental.load(path)
            return dataset
        if os.path.exists(r'E:\小思框架\论文\ganskchat\dataset'+ntype_+'_'+str(fwidx)):#换了batch后要重新处理数据集
            print('loading dataset')
            # 加载已经打乱过的数据集
            dataset = load_dataset(r'E:\小思框架\论文\ganskchat\dataset'+ntype_+'_'+str(fwidx))
        else:
            if big_file:
                text=[]
                with open(path_to_file, 'r',encoding='utf-8') as f:
                    idxlen=0
                    print('getting length\n')
                    for _ in tqdm.tqdm(f):
                        idxlen+=1
                
                st=idxlen//fen*fwidx
                ed=idxlen//fen*(fwidx+1)
                
                with open(path_to_file, 'r',encoding='utf-8') as f:
                    idx=0
                    print('\n\nrunning data\n')
                    for _ in tqdm.tqdm(f):
                        if idx=ed:
                            break
                        text.append(_)
                        idx+=1
                text=''.join(text)
            else:
                text = open(path_to_file, 'r',encoding='utf-8').read()
                idxlen=len(text)
                st=idxlen//fen*fwidx
                ed=idxlen//fen*(fwidx+1)
                text=text[st:ed]
                print('data size:',len(text))
    
            
            #text_as_int = np.array([char2idx[c] for c in text])
            text_as_int=[]
            cks=list(char2idx.keys())
            unk_li=set()
            len_=0
            for c in tqdm.tqdm(text):
                
                if c in cks:
                    text_as_int.append(char2idx[c])
                else:
                    c=cc.convert(c)
                    if c in cks:#转为简体再次尝试
                        text_as_int.append(char2idx[c])
                    else:
                        if not is_add:
                            if not c in unk_li:
                                with open('unk'+ntype_+'.txt','w',encoding='utf-8') as f:
                                    f.write(str(len_)+'\n'+str(list(unk_li)))#print('unknow:',repr(c))
                                unk_li.add(c)
                                len_+=1
                            text_as_int.append(UNK)
            text_as_int=np.array(text_as_int)
            #————————————————————————————
            # 创建训练样本 / 目标
            char_dataset = tf.data.Dataset.from_tensor_slices(text_as_int)
            if 0:
                for i in char_dataset.take(5):
                  print(i.numpy())
                  print(idx2char[i.numpy()])
            sequences = char_dataset.batch(seq_length+1, drop_remainder=True)
            
            for item in sequences.take(5):
              print(repr(''.join(idx2char[(item.numpy())])))
              
            dataset = sequences.map(split_input_target)
            dataset = dataset.shuffle(BUFFER_SIZE).batch(BATCH_SIZE, drop_remainder=True)
            tf.data.Dataset.save(dataset,'./dataset'+ntype_+'_'+str(fwidx) )
    
VPS购买请点击我

文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。

目录[+]