大模型(LLMs)分布式训练面来自:AiGC面试宝典宁静致远2023年09月29日10:371.理论篇1.1训练大语言模型存在问题?即使目前显存最大的GPU也...
大模型(LLMs)显存问题面来自:AiGC面试宝典宁静致远2023年09月16日21:001.大模型大概有多大,模型文件有多大?一般放出来的模型文件都是fp...
大模型(LLMs)LLM生成SFT数据方法面来自:AiGC面试宝典宁静致远2023年12月23日12:23一、SFT数据集如何生成?SFT数据集构建通常有两种方法...
大模型(LLMs)训练集面来自:AiGC面试宝典宁静致远2023年12月24日00:331.SFT(有监督微调)的数据集格式?一问一答2.RM(奖励模型)的数据...
大模型(LLMs)强化学习——PPO面来自:AiGC面试宝典宁静致远2024年01月27日20:47一、大语言模型RLHF中的PPO主要分哪些步骤?大语言模型RLH...
大模型(LLMs)强化学习——RLHF及其变种面来自:AiGC面试宝典宁静致远2024年01月27日20:47一、介绍一下LLM的经典预训练Pipeline?•大模型...
大模型(LLMs)强化学习面来自:AiGC面试宝典宁静致远2024年01月27日20:471简单介绍强化学习?强化学习:(ReinforcementLearning)一种机...
大模型(LLMs)评测面来自:AiGC面试宝典宁静致远2023年09月29日10:231大模型怎么评测?当前superGLUE,GLUE,包括中文的CLUE的benchmark都在...
大模型(LLMs)增量预训练篇来自:AiGC面试宝典宁静致远2024年01月27日20:471.为什么要增量预训练?有一种观点,预训练学知识,指令微调学...
大模型(LLMs)推理面来自:AiGC面试宝典宁静致远2023年10月22日22:431.为什么大模型推理时显存涨的那么多还一直占着?2.大模型在gpu和cpu...
大模型(LLMs)参数高效微调(PEFT)面来自:AiGC面试宝典宁静致远2023年09月18日20:551.微调方法是啥?如何微调?fine-tune,也叫全参微调,...
大模型(LLMs)RAG优化策略——RAG-Fusion篇来自:AiGC面试宝典宁静致远2024年03月19日22:30一、RAG有哪些优点?二、RAG存在哪些局限性?三...
大模型(LLMs)RAG——关键痛点及对应解决方案来自:AiGC面试宝典宁静致远2024年03月19日22:30•大模型(LLMs)RAG——关键痛点及对应解决...
大模型(LLMs)RAG版面分析——文本分块面来自:AiGC面试宝典宁静致远2024年03月19日22:30一、为什么需要对文本分块?使用大型语言模型(LL...
大模型(LLMs)RAG版面分析——表格识别方法篇来自:AiGC面试宝典宁静致远2024年03月19日22:30一、为什么需要识别表格?表格的尺寸、类型和...
大模型(LLMs)langchain面来自:AiGC面试宝典宁静致远2023年09月16日21:191.什么是LangChain?LangChain是一个强大的框架,旨在帮助开发人...
大模型(LLMs)微调面来自:AiGC面试宝典宁静致远2023年12月24日00:44大模型(LLMs)微调面1.如果想要在某个模型基础上做全参数微调,究竟...
大模型(LLMs)进阶面来自:AiGC面试宝典宁静致远2023年09月28日21:54一、什么是生成式大模型?生成式大模型(一般简称大模型LLMs)是指能...
大模型(LLMs)基础面来自:AiGC面试宝典宁静致远2023年09月28日21:501目前主流的开源模型体系有哪些?目前主流的开源模型体系分三种:2pre...