书目信息 |
题名: |
BERT基础教程
|
|
作者: | 拉维昌迪兰 著 ;周参 译 | |
分册: | ||
出版信息: | 北京 人民邮电出版社 2023 |
|
页数: | 266页 | |
开本: | 23cm | |
丛书名: | ||
单 册: | ||
中图分类: | TP391 | |
科图分类: | ||
主题词: | 自然语言处理--教材 | |
电子资源: | ||
ISBN: | 978-7-115-60372-2 |
000 | 01381nam0 2200313 450 | |
001 | 2461396005 | |
005 | 20241121101730.36 | |
010 | @a978-7-115-60372-2@dCNY89.80 | |
049 | @aA330300WZL@bUCS01011802055@c2006097658 | |
100 | @a20230405d2023 em y0chiy0110 ea | |
101 | 1 | @achi@cinc |
102 | @aCN@b110000 | |
105 | @aa z 000yy | |
200 | 1 | @aBERT基础教程@9BERT ji chu jiao cheng@b专著@dGetting started with Google BERT@eTransformer大模型实战@f(印)苏达哈尔桑·拉维昌迪兰(Sudharsan Ravichandiran)著@g周参译@zeng |
210 | @a北京@c人民邮电出版社@d2023 | |
215 | @a266页@c图@d23cm | |
300 | @a图灵教育 | |
305 | @a由Packt Publishing授权出版 | |
330 | @a本书聚焦谷歌公司开发的BERT自然语言处理模型,介绍了BERT的工作原理、BERT的各种变体及其应用;呈现了大量示意图、代码和实例,解析了如何训练BERT模型,如何使用BERT模型执行自然语言推理任务、文本摘要任务、问答任务、命名实体识别任务等各种下游任务,以及如何将BERT模型应用于不同的语言。 | |
510 | 1 | @aGetting started with Google BERT@zeng |
517 | 1 | @aTransformer大模型实战@9Transformer da mo xing shi zhan |
606 | 0 | @a自然语言处理@j教材 |
690 | @aTP391@v5 | |
701 | 0 | @c(印)@a拉维昌迪兰@9la wei chang di lan@c(Ravichandiran, Sudharsan)@4著 |
702 | 0 | @a周参@9zhou can@4译 |
801 | 0 | @aCN@bWT@c20230417 |
801 | 2 | @aCN@bOLCC @c20230605 |
801 | 2 | @aCN@bA330300WZL@c20230417 |
905 | @a241250@dTP391@e93 | |
BERT基础教程=Getting started with Google BERT:Transformer大模型实战/(印)苏达哈尔桑·拉维昌迪兰(Sudharsan Ravichandiran)著/周参译.-北京:人民邮电出版社,2023 |
266页:图;23cm |
图灵教育 |
ISBN 978-7-115-60372-2:CNY89.80 |
本书聚焦谷歌公司开发的BERT自然语言处理模型,介绍了BERT的工作原理、BERT的各种变体及其应用;呈现了大量示意图、代码和实例,解析了如何训练BERT模型,如何使用BERT模型执行自然语言推理任务、文本摘要任务、问答任务、命名实体识别任务等各种下游任务,以及如何将BERT模型应用于不同的语言。 |
● |
相关链接 |
正题名:BERT基础教程
索取号:TP391/93
 
预约/预借
序号 | 登录号 | 条形码 | 馆藏地/架位号 | 状态 | 备注 |
1 | 2025597 | 220255970 | 样本书库/ [索取号:TP391/93] | 在馆 | |
2 | 2025598 | 220255989 | 新区/ [索取号:TP391/93] | 在馆 | |
3 | 2025599 | 220255998 | 新区/ [索取号:TP391/93] | 在馆 |