当前位置: 首页 > news >正文

php网站开发实例教程码源网站如何进行seo

php网站开发实例教程码源,网站如何进行seo,怎么做一个微信小程序,网站公司做销售怎么样前置知识:RNN,Attention机制 在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attent…

前置知识:RNN,Attention机制

在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention机制发生在Target的元素和Source中的所有元素之间。

Self-Attention是在Source内部元素或者Target内部元素之间发生的Attention机制,也可以理解为Target=Source这种特殊情况下的注意力计算机制,相当于是Query=Key=Value,计算过程与Attention一样。

作用

Self-Attention模型可以理解为对RNN的替代,有着以下两个作用:

  • 引入Self-Attention后会更容易捕获句子中长距离的相互依赖的特征。Self-Attention在计算过程中会直接将句子中任意两个单词的联系通过一个计算步骤直接联系起来,所以远距离依赖特征之间的距离被极大缩短,有利于有效地利用这些特征。

  • Self Attention对于增加计算的并行性也有直接帮助作用。正好弥补了attention机制的两个缺点,这就是为何Self Attention逐渐被广泛使用的主要原因。

对于计算并行性的分析

Self-Attention使得Attention模型满足:
Attention(Q,K,V)=softmax(\frac {QK^T}{\sqrt{d_k}})V
其中:

  • dk是Q和K的维度(矩阵中向量的个数,即列数)

对于位置信息的分析

这个位置信息ei不是学出来的,在paper里,是人手设置出来的,每个位置都不一样,代表在第几个positon。

我们构造一个p向量,这是一个one-hot向量,只有某一维为1,代表这个单元是第几个位置。

P_i=(0,...,0,1,0,...,0)

我们和x进行拼接再进行w的运算得到a,它又等价于右边的公式,相当于ai+ei:

http://www.shuangfujiaoyu.com/news/3482.html

相关文章:

  • 网站有些网页收录了为什么排名还是很靠后啊seort什么意思
  • 编辑网站绑定 主机名天津疫情最新消息
  • 企业展厅公司yoast seo教程
  • seo托管seo怎样
  • 官方网站下载拼多多app竞价排名是什么
  • 济南手机网站百度搜题在线使用
  • 建设短视频网站今日新闻头条大事
  • 东莞沙田最新消息seo推广工具
  • 网站的交互设计有什么陕西seo推广
  • 框架网站模板seo的方式有哪些
  • 织梦网做网站步骤北京网站优化对策
  • 长春火车站进站需要核酸检测吗公司网络优化方案
  • 建立个人网站的目的相似图片在线查找
  • 辽宁做网站和优化网络营销什么意思
  • 旅游网站介绍怎么写识别关键词软件
  • 做新闻网站服务器选购2022最火营销方案
  • wordpress缺陷谷歌seo新规则
  • wordpress源代码怎么看seo优化关键词
  • 商务互联做网站怎么样竞价托管 微竞价
  • 国外设计网站behance下载seo技术博客
  • 网站帮企业做推广价格怎么算营销型网页设计
  • 网站做多长时间才有流量沈阳线上教学
  • 移动商务网站开发课程百度咨询电话 人工客服
  • 简述网站建设和推广评价指标业务推广方案怎么写
  • 如何做免费网站推广济南网站建设
  • 如何做一个个人网站重庆seo网站排名
  • 港海建设网站网站排名优化课程
  • 长春作网站世界大学排名
  • 建站abc做网站好累成都高端网站建设哪家好
  • 创建网站的公司站长工具在线免费