|
香侬读 | 自训练 + 预训练 = 更好的自然语言理解模型 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬聊 | 信息抽取在信息披露上的应用 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 你可能不需要固定词表:一种与词表无关的组合式词向量方法 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 采样算法哪家强:一个针对主流采样算法的比较 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬科技入选“首届‘新基建+数字金融’全球金融科技创新实践案例” 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 用文本指导文本:基于文本的自监督可控文本生成模型 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 切分也重要:基于多粒度语言单元切分的BERT模型 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 机器翻译中丢掉词向量层会怎样? 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | Beam Search还能更快?结合优先队列的最佳优先化Beam Search 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 搜索,然后学习:两阶段的无监督文本生成 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 向预训练进一步:掩码式非自回归模型训练 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 复述(paraphrasing):一种简单暴力的预训练方式 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 更深的编码器+更浅的解码器=更快的自回归模型 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
李纪为入选《麻省理工科技评论》「全球35岁以下科技创新35人」榜 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | Funnel-Transformer:让Transformer更高效地处理长序列 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬 ICML 2020 | 提出基于类别描述的文本分类模型 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 基于不同硬件搜索更好的Transformer结构 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 预训练生成模型:结合VAE与BERT/GPT-2提高文本生成效果 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | VD-BERT:用BERT搭建统一的视觉对话模型 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |
|
香侬读 | 非自回归也能预训练:基于插入的硬约束生成模型预训练方法 香侬科技 · 公众号 · · 3 年前 · 访问文章快照 |