当前位置:网站首页>Comment comprendre le mécanisme de la mémoire et de l'attention dans l'apprentissage profond? Cette thèse de doctorat de 212 pages de Deakin vous donne une réponse.
Comment comprendre le mécanisme de la mémoire et de l'attention dans l'apprentissage profond? Cette thèse de doctorat de 212 pages de Deakin vous donne une réponse.
2022-07-16 09:09:00 【Communauté des sages】

L'intelligence a besoin de mémoire.Aucun souvenir.,L'homme ne peut accomplir toutes sortes de tâches importantes,Comme lire un roman、Jouer à des jeux ou résoudre des problèmes de maths.L'objectif ultime de l'apprentissage automatique est de développer des systèmes intelligents d'apprentissage et d'action automatisés comme les humains,La construction de la mémoire de la machine est donc inévitable.Les réseaux neuronaux artificiels relient les unités de calcul par des poids,Modéliser les neurones et les synapses du cerveau,Il s'agit d'un algorithme d'apprentissage automatique typique semblable à une structure de mémoire.Leurs descendants ont des techniques de modélisation plus sophistiquées(C'est - à - dire l'apprentissage profond),Il a été appliqué avec succès à de nombreux problèmes pratiques,Et a prouvé l'importance de la mémoire dans le processus d'apprentissage du système machine.Ces dernières années,La recherche sur la modélisation de la mémoire dans l'apprentissage profond se concentre principalement sur la structure de la mémoire externe,Inspiré par le modèle Turing computationnel et le système neuronal biologique.Les mécanismes d'attention sont créés pour soutenir les opérations d'acquisition et de conservation de la mémoire externe.Malgré l'absence de base théorique,Ces méthodes ont montré l'espoir d'aider les systèmes de machines à atteindre un niveau d'intelligence plus élevé.Le but de cet article est d'améliorer la connaissance de la mémoire et de l'attention dans l'apprentissage profond.Ses contributions comprennent: (i) Présenter une collection de classifications de mémoire,(ii)Construction d'un nouveau réseau neuronal d'amélioration de la mémoire supportant plusieurs unités de contrôle et de mémoire(MANN), (iii)Introduction de la variabilité par la génération séquentielle de la mémoire dans le modèle,(iv) Trouver les meilleures opérations d'écriture dans les réseaux de mémoire basés sur les fentes pour maximiser la capacité de mémoire ;(v) Un nouveau type de mémoire externe via un réseau neuronal —— Mémoire de programme neuro - mémoire pour simuler une machine Turing universelle .
Table des matières:
1 Introduction
2 Taxonomy for Memory in RNNs 9
3 Memory-augmented Neural Networks 40
4 Memory Models for Multiple Processes 57
5 Variational Memory in Generative Models 89
6 Optimal Writing Memory 103
7 Neural Stored-Program Memory 120
8 Conclusions 134
Dans cet article, Nous présentons plusieurs types de mémoire des réseaux neuronaux , Surtout les réseaux neuronaux récursifs (RNNs). Nous mettons l'accent sur la mémoire comme RNN Le concept de stockage externe ,Parmi euxrnn Peut apprendre à lire et à écrire la mémoire externe , Pour soutenir sa mémoire de travail (No2Chapitre). Nous avons passé en revue l'entraînement à la résolution RNN Progrès difficiles , Comme les mécanismes de contrôle des portes et d'attention , Particulièrement basé sur la fente MANN, C'est le contenu principal du nouveau modèle présenté au chapitre 3 de cet article . Notre contribution principale est de quatre ordres .Tout d'abord,, NousMANN En tant que modèle multi - processus Multi - points de vue pour traiter des problèmes complexes ,Par exemple:sequence-to-sequence Mapping and Multi - perspective Sequence Learning (Chapitre IV).Nous étendons encoreMANNs .Exigences relatives à la variabilité et à la cohérence des données de session générées par le modèle en tant que séquences discrètes (No5Chapitre). Nous expliquons aussi que la dernière chose en mémoire , .Nous avons introduit une nouvelle catégorie de MANN, Il suit le principe de stockage du programme stocké , Différentes fonctions peuvent être exécutées en changeant le programme du Contrôleur .

边栏推荐
- Getting started with Scala
- 音视频学习(六)——PCM音频基础
- 曹洁 Spark编程Scala版本课后习题答案
- Detailed explanation and Simulation of string library function and memory operation library function
- 内存映射原理及详解(非常实用)
- 从零开始写一个opengl渲染器——基础设施搭建篇
- Vscode input! No prompt, unable to automatically complete the solution (latest)
- Machine learning - support vector machine (SVM)
- 孤儿进程、僵尸进程和进程退出(针对面试)
- Laravel 用户认证中 attempt方法
猜你喜欢

Séquence de traversée de l'ordre initial et de l'ordre moyen pour déterminer un arbre binaire (restauration de l'arbre binaire)

uniapp-小程序与H5压缩图片上传

JMeter 21 day clock in day01

Machine learning - support vector machine (SVM)

odoo owl解释

babylon.js高度图

strlen简介,和sizeof的区别

三种方法模拟实现库函数strlen,加深对strlen的理解

Message mechanism of dtcloud (2)

Hcip third day notes
随机推荐
modular
phpstorm2022连接数据库
map集合总结
spark期末考试选择题精选
选择排序法
天田AMADA数控折弯机触摸屏维修RGM21003主机电路板维修
Hcip day 4 notes
LeetCode 2155. All subscripts with the highest score in the group
Hcip fourth day experiment
Programmer transformation project management? Get a PMP?
有名管道原理及详解(非常实用)
Hcip day 6 notes
现在网上开户安全吗?开户需要准备什么证件?
Qt+vs project imports relevant DLLs under the release/debug folder (very practical)
dtcloud Qweb实战之看板视图
【漏洞分析】Drupal 远程代码执行(CVE-2017-6920)
内存映射原理及详解(非常实用)
Details of assets of odoo
LeetCode 1584. 连接所有点的最小费用
3,jvm垃圾回收器