×

GELUs公司

swMATH ID: 36443
软件作者: 丹·亨德里克斯(Dan Hendrycks)、凯文·金佩尔(Kevin Gimpel)
描述: 高斯误差线性单位(GELU)。我们提出了高斯误差线性单元(GELU),这是一种高性能的神经网络激活函数。GELU激活函数是xΦ(x),其中Φ(x”)是标准高斯累积分布函数。GELU非线性通过其值对输入进行加权,而不是像ReLU中那样通过其符号对输入进行选通(x1x>0)。我们针对ReLU和ELU激活对GELU非线性进行了实证评估,并发现在所有考虑的计算机视觉、自然语言处理和语音任务中的性能改进。
主页: https://arxiv.org/abs/1606.08415
源代码:  https://github.com/hendrycks/GELUs网址
关键词: 机器学习arXiv_cs。LG公司高斯误差线性单位GELU公司神经网络激活函数
相关软件: 亚当PyTorch公司githubDeepONet(深度网络)AlexNet公司ImageNet公司L-BFGS公司DGM公司深XDEPIN码NTK码MIONet公司科学Py米什掌中宽带MNIST公司TensorFlow公司火炬差异t-SNE公司PySCF公司张紧器2传感器
引用于: 19文件

标准条款

1出版物描述软件 年份
高斯误差线性单位(GELU)arXiv公司
丹·亨德里克斯(Dan Hendrycks)、凯文·金佩尔(Kevin Gimpel)
2016

按年份列出的引文