名称: | |
描述: | |
公开/私有: | 公开 私有 |
基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理 |
|
题名/责任者:
|
基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理 / (法) 丹尼斯·罗斯曼著 , 叶伟民译 |
ISBN:
|
978-7-302-64872-7 价格: CNY99.80 |
语种:
|
汉语 |
载体形态:
|
xvii, 353页 : 图 ; 24cm |
出版发行:
|
北京 : 清华大学出版社, 2024 |
内容提要:
|
本书将引领读者进入Transformer的世界,将讲述不同模型和平台的优势,指出如何消除模型的缺点和问题。引导读者使用Hugging Face从头开始预训练一个RoBERTa模型,包括构建数据集、定义数据整理器以及训练模型等。 |
主题词:
|
人工智能 应用 自然语言处理 研究 |
中图分类法
:
|
TP391 版次: 5 |
主要责任者:
|
罗斯曼 著 |
次要责任者:
|
叶伟民 译 |
标签:
|
|
相关主题:
|
|
相关资源:
|
|
HEA| |01442nam0 2200289 450 001| |人天1105-2520 005| |20241011204648.6 010| |▼a978-7-302-64872-7▼dCNY99.80 099| |▼aCAL 012024005774 100| |▼a20241011d2024 em y0chiy50 ea 101|1 |▼achi▼ceng 102| |▼aCN▼b110000 105| |▼aak z 000yy 106| |▼ar 200|1 |▼a基于GPT-3、ChatGPT、GPT-4等Transf- | |ormer架构的自然语言处理▼Aji yu GPT-3、Ch- | |atGPT、GPT-4 deng Transformer j- | |ia gou de zi ran yu yan chu li- | |▼f(法) 丹尼斯·罗斯曼著▼g叶伟民译 210| |▼a北京▼c清华大学出版社▼d2024 215| |▼axvii, 353页▼c图▼d24cm 305| |▼a据原书第2版译出 312| |▼a书名原文取自版权页 330| |▼a本书将引领读者进入Transformer的世界,将讲述不- | |同模型和平台的优势,指出如何消除模型的缺点和问题。引导读者使- | |用Hugging Face从头开始预训练一个RoBERTa模- | |型,包括构建数据集、定义数据整理器以及训练模型等。 500|10|▼aBuild, train, and fine-tune - | |deep neural network architectu- | |res for NLP with Python, Huggi- | |ng Face, and OpenAI\'s GPT-3, C- | |hatGPT, and GPT-4▼mChinese 606|0 |▼a人工智能▼Aren gong zhi neng▼x应用▼- | |x自然语言处理▼x研究 690| |▼aTP391▼v5 701| 1|▼a罗斯曼▼Aluo si man▼g(Rothman, Denis)▼4著 702| 0|▼a叶伟民▼Aye wei min▼4译 801| 0|▼aCN▼bCCBD▼c20231215 801| 2|▼aCN▼bGDHYDX▼c20241011