当前位置:网站首页>Pretraining Weekly No. 50: No Decode converter, neural prompt search, gradient Space reduction

Pretraining Weekly No. 50: No Decode converter, neural prompt search, gradient Space reduction

2022-06-21 12:42:00 Communauté des sages

 

À propos de Weekly

Ce numéro de l'hebdomadaire,Nous avons choisi12Articles liés à la pré - Formation,Impliquant un apprentissage dimensionnel réduit、Propriétés des grands modèles、Conseils visuels、Détection d'objets、Modèle linguistique、Q & a zéro échantillon、Analyse syntaxique、Compréhension de la langue、Séquence protéique、Caractérisation des protéines、L'exploration de la prédiction protéique et de la prédiction évolutive.En outre,En termes de dynamique de la recherche,Nous avons choisi3Informations préalables à la formation,L'évaluation du Modèle linguistique sera présentée、Quelques nouveautés dans l'industrie multimodale et grand modèle.

Les hebdomadaires sont produits selon le modèle de collaboration communautaire,Les amis intéressés sont invités à participer à notre travail,Travailler ensemble pour promouvoir le partage de la Communauté d'apprentissage de la pré - Formation、Activités d'apprentissage et de communication.Le Code QR à la fin du document peut être scanné pour ajouter un groupe de pré - Formation.

Contributeurs actuels:Shendezhou Zhai Ke Wu XINGANG)

 

À propos des abonnements hebdomadaires

Bonne nouvelle.,《Semaine de pré - Formation》Ouvert“Fonctions d'abonnement”,Nous vous enverrons automatiquement la dernière version《Semaine de pré - Formation》.Méthode d'abonnement:

 

Mode 1:

Scannez le Code QR ci - dessous,Entrée《Semaine de pré - Formation》Page d'accueil,Sélectionner“AttentionTA”.

Mode 2:

1,Inscrivez - vous au compte de la communauté Zhiyuan

2,Cliquez sur la section auteur dans le coin supérieur gauche de l'interface hebdomadaire“Semaine de pré - Formation”(Comme le montre la figure ci - dessous:),Entrée“Semaine de pré - Formation”Page d'accueil.

3,Cliquez sur“AttentionTA”(Comme le montre la figure ci - dessous:)

4,Vous avez terminé《Semaine de pré - Formation》Abonnez - vous.,À l'avenir, la communauté Zhiyuan vous enverra automatiquement la dernière version de《Semaine de pré - Formation》!

 

Recommandations

Titre: Johannes Kepler University 、Anyline GmbHAttendez.|FEW-SHOT LEARNING BY DIMENSIONALITY REDUCTION IN GRADIENT SPACE( L'apprentissage dimensionnel réduit pour les petits et moyens échantillons dans l'espace de gradient )

Auteur:Martin Gauch, Maximilian Beck, Thomas Adler, Sebastian LehnerAttendez.

Introduction:Cet article présenteSubGD, Une nouvelle méthode d'apprentissage par petits échantillons . Les mises à jour aléatoires de la descente par Gradient existent souvent dans des sous - espaces paramétriques de faible dimension. . Par des expériences et des analyses théoriques , Les auteurs montrent que le modèle est limité à un sous - espace sémantique prédéterminé approprié . Pour un petit échantillon d'apprentissage , Peut bien résumer un sous - espace approprié , Trois conditions sont remplies dans des conditions données :(a)Permet de réduire les erreurs d'entraînement par Gradient,(b) Conduit à une meilleure généralisation du modèle ,(c) Peut être identifié par une chute de gradient aléatoire .SubGD Décomposition caractéristique des matrices d'autocorrélation qui identifient les directions de mise à jour de ces sous - espaces dans différentes tâches , Les sous - espaces appropriés de faible dimension peuvent être identifiés , Pour l'apprentissage dynamique de petits échantillons .

Téléchargement de documents:https://arxiv.org/pdf/2206.03483v1.pdf

Lire la suite

 

Titre:Google、Stanford、University of North Carolina、DeepMind|Emergent Abilities of Large Language Models( Les nouvelles capacités des grands modèles linguistiques )

Auteur:Jason Wei, Yi Tay, Jeff Dean, William FedusAttendez.

Introduction: Cet article présente les nouvelles caractéristiques du Modèle linguistique . Les modèles linguistiques ont démontré la capacité d'améliorer de façon prévisible le rendement et l'efficacité de l'échantillonnage en aval. . Cet article traite d'un phénomène imprévisible , Ce que les auteurs appellent les nouvelles capacités du modèle Big Language . Penser à une capacité de devenir un nouveau venu , S'il n'existe pas dans un modèle plus petit , Mais dans les grands modèles .Donc,, Les capacités émergentes ne peuvent pas être prédites simplement en extrapolant des modèles plus petits . L'existence de nouvelles capacités signifie que des dimensions supplémentaires peuvent accroître encore la capacité du Modèle linguistique. .

Téléchargement de documents:https://arxiv.org/pdf/2206.07682v1.pdf

Lire la suite

 

Titre:Nanyang University of Technology|Neural Prompt Search( Recherche d'indices neurologiques )

Auteur:Yuanhan Zhang, Kaiyang Zhou, Ziwei Liu

Introduction: Cet article présente l'algorithme de prompt du modèle visuel .Au cours des dernières années, L'échelle du modèle visuel augmente exponentiellement , Surtout après l'apparition du convertisseur visuel . Cela favorise le développement de méthodes d'ajustement de l'efficacité des paramètres , Par exemple, apprendre la couche adaptateur , Ou des repères visuels . Autoriser une petite partie de l'entraînement des paramètres du modèle , La plupart des paramètres obtenus avant l'entraînement sont gelés . Cependant, il n'est pas facile de concevoir une méthode de réglage appropriée : Les gens peuvent avoir besoin d'essayer de longues listes d'options de conception , Sans oublier que chaque ensemble de données en aval nécessite généralement une conception personnalisée .Dans cet article, Les auteurs ont étudié les méthodes actuelles d'ajustement de l'efficacité des paramètres comme suit: “ Module prompt ”,Et propose Une nouvelle méthode d'apprentissage : Recherche d'indices neurologiques (NOAH). Pour les grands modèles visuels , Algorithme de recherche de l'architecture neuronale pour le module de conception optimale , Pour chaque ensemble de données en aval .Par la droite20 Plusieurs ensembles de données visuelles pour une vaste expérience ,Attestation de l'auteurNOAH(i) Meilleur qu'un seul module prompt ,(ii) Bonne capacité d'apprentissage de petits échantillons ,(iii) Est extensible dans le domaine .

Téléchargement de code:https://github.com/Davidzhangyuanhan/NOAH

Téléchargement de documents:https://arxiv.org/pdf/2206.04673v1.pdf

Lire la suite

 

Titre:Tencent|Efficient Decoder-free Object Detection with Transformers( Détection efficace d'objets sans décodeur à l'aide d'un convertisseur )

Auteur:Peixian Chen, Mengdan Zhang, Chunhua ShenAttendez.

Introduction: Cet article présente une méthode de détection d'objets visuels . L'utilisation subtile est DETRSérie, Pas besoin de beaucoup de composants conçus à la main pour la détection d'objets , Mais il faut beaucoup de temps pour que le décodeur converge. . L'auteur propose un nouveau type de non - décodeur entièrement basé sur le convertisseur (DFFT)Détecteur d'objets, Les phases d'efficacité et de raisonnement ont été réalisées dans les deux formations. . L'auteur réduit la détection des objections au problème de prédiction de la densité d'ancrage à un seul niveau basé uniquement sur l'encodeur , L'approche consiste à utiliser deux questions comme point d'entrée Central :1)Décodeur pour éliminer l'inefficacité de la formation, Et utiliser deux encodeurs puissants pour maintenir l'exactitude de la prédiction de la carte caractéristique à un seul étage ;2) Explorer les ressources de calcul des caractéristiques sémantiques de bas niveau pour les tâches de détection .En particulier, L'auteur a conçu une nouvelle dorsale de convertisseur basée sur la détection légère , Saisir efficacement les caractéristiques de bas niveau grâce à une sémantique riche .C'est exact. MS COCO Une vaste expérience de référence a montré que :DFFTQueDETRPlus haut 2.5%,Réduction des coûts de calcul28%, Réduction du temps d'entraînement 10X. Avec les meilleurs détecteurs basés sur l'ancrage RetinaNetComparaison des algorithmes,DFFTPlus que5.5%DeAPGain,Réduction simultanée70%Coût calculé.

Téléchargement de documents:https://arxiv.org/pdf/2206.06829v1.pdf

Lire la suite

 

Titre: Microsoft | Language Models are General-Purpose Interfaces( Le Modèle linguistique est une interface universelle )

Auteur:Yaru Hao, Haoyu Song, Li Dong,Attendez.

Introduction: Cet article étudie comment utiliser le modèle de langage de pré - formation comme interface universelle du modèle de base 、 Et propose une stratégie combinant les techniques d'apprentissage causal .Le modèle de base a attiré beaucoup d'attention en raison de son efficacité dans une large gamme d'applications en aval.. Bien qu'il y ait eu beaucoup de convergence dans l'architecture ,Mais la plupart des modèles de pré - formation sont généralement élaborés pour des tâches ou des modèles spécifiques..Dans ce travail,L'auteur suggère d'utiliser le Modèle linguistique comme interface commune pour divers modèles de base..Un ensemble d'encodeurs pré - formés peut détecter différents modes(Comme la vision et le langage),Et ils se connectent à un modèle linguistique qui joue un rôle de niveau de tâche commun.L'auteur propose un objectif de modélisation en langage semi - causal pour combiner l'interface de pré - formation et l'encodeur modulaire..Les auteurs présentent les avantages et les capacités de la modélisation causale et non causale., Qui combinent les avantages de ces deux dimensions . Les résultats expérimentaux de plusieurs références linguistiques pures et visuelles montrent que: ,Le modèle de l'auteur est en train de peaufiner、 La généralisation de l'échantillon zéro et l'apprentissage avec peu d'échantillons sont supérieurs ou égaux au modèle professionnel .

Téléchargement de documents:https://arxiv.org/pdf/2206.06336

Lire la suite

 

Titre: New York University、IBM | Task Transfer and Domain Adaptation for Zero-Shot Question Answering( Transfert des tâches et adaptation du domaine pour les questions - réponses à échantillon nul )

Auteur:Xiang Pan, Alex Sheng, David Shimshoni,Attendez.

Introduction:Cet article est publié dansNAACL 2022 Apprentissage profond faible ressource NLP Séminaire. Le Modèle linguistique pré - formé a été un succès dans tous les domaines du traitement du langage naturel , Comprend des tâches de compréhension de la lecture .Mais, Lorsque vous appliquez des méthodes d'apprentissage automatique à de nouveaux domaines , Les données de marquage peuvent ne pas toujours être disponibles .Pour résoudre ce problème, L'auteur utilise une formation préalable supervisée sur les données du domaine source pour réduire la complexité de l'échantillon des tâches en aval dans un domaine particulier. . L'auteur ajuste le modèle de pré - formation sans données marquées de la tâche cible en combinant le transfert de tâche avec l'adaptation du domaine , Afin d'évaluer le rendement de l'échantillon zéro pour la tâche de compréhension de la lecture dans un domaine particulier .L'approche de l'auteur 4 Parmi les domaines 3 Les tâches de compréhension de la lecture dans des domaines spécifiques en aval sont supérieures au modèle adaptatif de pré - formation dans des domaines spécifiques. .

Téléchargement de documents:https://arxiv.org/pdf/2206.06705

Lire la suite

 

Titre:Université de Tianjin | Unsupervised and Few-shot Parsing from Pretrained Language Models( Analyse syntaxique non supervisée de petits échantillons basée sur un modèle linguistique de pré - Formation )

Auteur:Zhiyuan Zeng, Deyi Xiong

Introduction: Cet article étudie le domaine de l'analyse syntaxique non supervisée dans le Modèle linguistique de pré - Formation . Il est généralement admis que les modèles linguistiques pré - formés peuvent coder la syntaxe .Dans cet article, L'auteur propose un modèle d'analyse des composants non supervisé (UPOA): Calcul du score hors pertinence basé sur la matrice de pondération de l'auto - Attention apprise dans le Modèle linguistique de pré - Formation , Distance syntaxique en tant que Division de portée . L'auteur propose en outre une version améliorée UPIO, Il utilise les scores de corrélation interne et externe pour estimer la probabilité d'une portée .UPOAEtUPIOL'expérience montre que, La matrice de projection linéaire de la requête et la clé du mécanisme d'auto - Attention jouent un rôle important dans l'analyse .Donc,, L'auteur étend le modèle non supervisé au modèle analytique à petit échantillon (FPOA,FPIO), Ces modèles utilisent des arbres partiellement annotés pour apprendre une meilleure matrice de projection linéaire à analyser . L'expérience d'analyse multilingue montre que :InSPMRL Dans la plupart des langues , Les méthodes non supervisées et les méthodes d'analyse de petits échantillons sont meilleures que les méthodes précédentes. .

Téléchargement de documents:https://arxiv.org/pdf/2206.04980.pdf

Lire la suite

 

Titre: Amazon | Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter Encoders for Natural Language Understanding Systems(Alexa Modèle d'enseignant: Encodeurs pré - formés et extrayant des milliards de paramètres pour les systèmes de compréhension du langage naturel )

Auteur:Jack FitzGerald, Shankar Ananthakrishnan, Konstantine Arkoudas,Attendez.

Introduction: Cet article présente principalement les résultats expérimentaux d'un encodeur pré - formé à grande échelle . Dans l'expérience, l'auteur compte les paramètres non intégrés de 700M À 9.3B, Il est ensuite raffiné en paramètres allant de 17M-170M Un modèle plus petit de , Et l'appliquer à la compréhension du langage naturel du système d'assistance virtuelle (NLU)Components. Bien que l'auteur utilise 70% Les données sur les formes orales pour la formation , Mais quand on raisonne en langage naturel (XNLI) Lors de l'évaluation sur le corpus , La performance du modèle d'enseignant de l'auteur est liée à XLM-REtmT5Assez.. .L'auteur utilise les données du domaine dans le système pour effectuer le modèle d'enseignant de l'auteur 2 Pré - formation de la phase , Augmentation du taux d'erreur de classification par rapport à l'intention 3.86%, Augmentation du taux d'erreur de remplissage des fentes 7.01%.L'auteur a découvert que, Et ceux qui ne sont formés qu'aux données publiques 2.3B Modèle d'enseignant paramétrique (No1Phase)Comparé à, Même à partir de la page de l'auteur 2 Extrait du modèle d'enseignant par étapes 170MModèle paramétrique, Il existe également des catégories d'intention 2.88%Amélioration, Les taux d'erreur de remplissage des fentes sont également disponibles 7.69%Amélioration, L'importance des données intradomaines pour la formation préalable est soulignée. .

Téléchargement de documents:https://arxiv.org/pdf/2206.07808

Lire la suite

 

Titre: MilaAttendez. | PEER: A Comprehensive and Multi-Task Benchmark for Protein Sequence Understanding(PEER: Base complète et multitâche pour la compréhension des séquences protéiques )

Auteur:Minghao Xu, Jian TangAttendez.

Introduction: Cet article présente un pré - entraînement aux protéines benchmark. Ces dernières années, les méthodes d'apprentissage en profondeur ont fait des progrès considérables dans diverses tâches liées aux protéines .Et pourtant, À l'heure actuelle, il n'existe pas de référence normalisée pour évaluer le rendement des différentes approches. .Dans cet article, nous présentonsPEERNiveau de référence,Un、 Critères de compréhension de la séquence protéique multitâche .PEER Fournit un ensemble différent de tâches de compréhension des protéines , Y compris la prédiction de la fonction protéique 、 Prédiction de la localisation des protéines 、Prédiction de la Structure protéique、Protéines- Prédiction des interactions protéiques et protéines - Prédiction des interactions Ligands . Cet article évalue différents types d'approches séquentielles pour chaque tâche , Y compris les méthodes traditionnelles d'ingénierie des caractéristiques 、 Différentes méthodes de codage des séquences et des modèles de langage protéique pré - formés à grande échelle .En outre, Cet article examine également la performance de ces méthodes dans le cadre de l'apprentissage multitâche .Les résultats expérimentaux montrent que, Le modèle de langage protéique pré - formé à grande échelle donne les meilleurs résultats pour la plupart des tâches individuelles , L'entraînement combiné à plusieurs tâches améliore encore le rendement .

Téléchargement de documents:https://arxiv.org/pdf/2206.02096v1.pdf

Lire la suite

 

Titre:Tsinghua, etc. | A novel attention-based peptide language model for dipeptidyl peptidase-IV inhibitory peptides mining( Pour Dipeptidyl Peptidase -Ⅳ Modèle de langage dipeptidique basé sur l'attention pour l'extraction d'inhibiteurs )

Auteur:Changge Guan,  Xin-Hui XingAttendez.

Introduction: Cet article présente l'application de la formation préalable à la recherche et au développement de médicaments. .Dipeptidyl Peptidase-ⅣInhibiteurs(DPP-IV-IP)C'est un nouveau médicament Antidiabétique, Cependant, en raison de l'absence d'outils efficaces d'extraction de Polypeptides ,TrouvéDPP-IV-IPNombre limité.Cet article propose une baseBERT Modèle de langage de pré - formation peptidique basé sur (PLM)Pour identifierDPP-IV-IP,Et a obtenu0.894Précision.Visualisation de l'attention du modèle,Le modèle permet d'apprendre automatiquement les propriétés physicochimiques et structurales des séquences polypeptidiques,C'est - à - dire:DPP-IVSite de pyrolyse, Les séquences d'acides aminés dans les espaces de haute dimension peuvent également être distinguées et représentées .Cet article démontre pour la première foisPLML'information sur le site de fissuration peut être saisie,Et a prouvéPLMCapacité de diriger le dépistage des expériences biologiques.Les résultats des expériences biologiques montrent que,Basé surPLMAuxiliaireDPP-IV-IPFiltrage,La précision de prédiction du modèle est90%.Pour explorerDPP-IV-IPLa diversité de,Cet article propose une unit é de répétition dipeptidiqueX-La stratégie de Proline,Les résultats de la modélisation et des expériences biologiques montrent que la stratégie est réalisable.

Téléchargement de documents:https://doi.org/10.1101/2022.06.13.495896

Lire la suite

 

Titre:Université de technologie de Munich | TMbed - Transmembrane proteins predicted through Language Model embeddings(TMbed: Prédiction des peptides transmembranaires par intégration de modèles linguistiques )

Auteur:Michael Bernhofer, Burkhard Rost

Introduction: Cet article présente l'application du prétraitement à la prédiction des peptides transmembranaires. . Les nouvelles méthodes d'aujourd'hui peuvent prédire avec précision de nombreuses structures , Mais l'annotation de la région transmembranaire de la protéine demeure une étape limitative dans l'ensemble de l'étude protéomique. .Cet article propose une nouvelle approche,AppeléTMbed, Il provient d'un modèle de langage protéique pré - formé (ProtT5) Insérer dans , En quelques heures, vous pouvez faire des recherches sur l'ensemble du Protéome sur un ordinateur de bureau grand public. αSpirale etβ Barrel TMPPrévisions, Son niveau de performance est similaire ou supérieur à celui de l'utilisation de l'information évolutive . Au niveau de chaque protéine ,TMbed Les ensembles de données non redondants sont correctement identifiés 65- Oui.β- Barrel TMPDans61Et593- Oui.α- Spirale TMPDans579- Oui., Le taux de faux positifs est beaucoup plus faible 1%. Au niveau de chaque paragraphe ,TMbed En moyenne 10 Dans les zones transmembranaires 9 Sont correctement placés dans les résidus validés expérimentalement .Bref,TMbed Prédit avec précision αSpirale etβSeauTMPs, En utilisant des modèles de langage protéique et GPUAccélération, Il peut prédire les protéines humaines en moins d'une heure .

Téléchargement de documents:https://doi.org/10.1101/2022.06.12.495804

Lire la suite

 

Titre: West Lake University、Microsoft, etc. | Exploring evolution-based & -free protein language models as protein function predictors( Explorer un modèle de langage protéique basé sur l'évolution ou non comme prédicteur de la fonction protéique )

Auteur:Mingyang Hu, Fajie YuanAttendez.

Introduction: Dans cet article, nous avons évalué 3 Architecture et pré - formation . Modèle de langage protéique à grande échelle (PLMs) Amélioration de la performance des tâches de prédiction des protéines , Y compris la prévision de la structure 3D à diverses prévisions fonctionnelles .En particulierAlphaFold, Un pionnier , L'intelligence artificielle qui pourrait remodeler la biologie structurelle .Et pourtant,AlphaFoldDansPLMModuleEvoformer L'utilité de . Cet article étudie trois PLMsLa capacité de caractériser.ESM-1b( Une seule séquence )、MSA-Transformer(Alignement Multi - séquences)EtEvoformer(Structure), Une attention particulière est accordée à Evoformer.Plus précisément,, Cet article vise à répondre aux questions clés suivantes :En tant queAlphaFold Une partie de l'entraînement Evoformer Est capable de produire une caractérisation appropriée pour prédire la fonction protéique ?Si oui,EvoformerPeut - on remplacerESM-1bEtMSA-Transformer?CesPLMs Mesure dans laquelle les données sur les protéines liées à l'évolution sont utilisées ?Dans ce contexte, Sont - ils complémentaires? ? Cet article compare ces modèles à l'aide d'études empiriques. , En même temps, de nouvelles idées et conclusions .

Téléchargement de documents:https://arxiv.org/pdf/2206.06583v1.pdf

Lire la suite

 

Évolution de la recherche

Titre:Google, etc.|BEYOND THE IMITATION GAME: QUANTIFYING AND EXTRAPOLATING THE CAPABILITIES OF LANGUAGE MODELS( Au - delà du jeu d'imitation : Capacité de quantifier et d'inférer des modèles linguistiques )

Introduction: Au fur et à mesure que l'échelle augmente , Le Modèle linguistique présente à la fois des améliorations quantitatives , La capacité d'amélioration qualitative a également été démontrée . L'auteur a introduit des repères de jeu qui vont au - delà de l'imitation (BIG-bench),Par204 Composition des tâches , Les sujets comprennent les questions de dessin 、Linguistique,Développement de l'enfant,Mathématiques,Raisonnement de bon sens,Biologie,Physique, Préjugés sociaux ,Développement de logiciels, etc..BIG-bench Se concentrer sur les tâches qui dépassent les capacités actuelles du Modèle linguistique .Évaluation de l'auteurOpenAIDeGPT Le comportement du modèle , Architecture de convertisseur interne dense de Google ,EtBIG-bench Convertisseur Sparse de routage sur , Taille du modèle couvrant des millions à des centaines de milliards de paramètres . Les résultats de l'enquête comprennent : La performance et la précision du modèle s'améliorent avec l'échelle , Mais les valeurs absolues sont faibles ( Par rapport au rendement des évaluateurs ); Les performances sont très similaires entre les classes de modèles , Malgré les avantages de la rareté ; Les tâches progressives et prévisibles impliquent souvent une grande quantité de connaissances ou d'éléments de mémoire , Et à une échelle critique, il y a souvent plusieurs étapes ou composants , Ou indice de fragilité ; Dans un contexte ambigu , Les préjugés sociaux augmentent généralement avec la taille du modèle. , Mais cela peut être amélioré en demandant des ajustements .

Téléchargement de documents:https://arxiv.org/pdf/2206.04615v1.pdf

Lire la suite

 

Titre: Université d'Oxford, Royaume - Uni、Université de Surrey| Multimodal Learning with Transformers: A Survey(Aperçu général:Transformers Apprentissage multimodal)

Auteur:Peng Xu, Xiatian Zhu, David A. Clifton

Introduction:Transformer Est une sorte d'apprenant de réseau neuronal prometteur , Un grand succès dans diverses tâches d'apprentissage automatique . En raison des applications multimodales récentes et de la popularité des mégadonnées ,Basé sur Transformer L'apprentissage multimodal est devenu AI Sujet brûlant de la recherche . Cet article fait face à Transformer La technologie a fait l'objet d'une enquête approfondie . Les principaux éléments de cette étude sont les suivants: :(1)Apprentissage multimodal、Transformer Contexte de l'ère des écosystèmes et des mégadonnées multimodales .(2) Du point de vue de la topologie géométrique Vanilla Transformer、Vision Transformer Et multimodal Transformer Examen de la théorie. (3) Par deux paradigmes importants , C'est - à - dire la pré - formation multimodale et les tâches multimodales spécifiques , Examen des modes multiples Transformer Application.(4) Résumer plusieurs modes Transformer Défis communs et conception du partage des modèles et des applications .(5) Discuter des questions ouvertes et des orientations possibles de la recherche dans la communauté .

Téléchargement de documents:https://arxiv.org/pdf/2206.06488

Lire la suite

 

Titre:AI Les taureaux quittent la grande usine pour rejoindre les quatre dragons modèles nord - américains

Introduction:À court termeCNBCCouverture, Quatre startups célèbres liés au grand modèle Inflection、Cohere、AdeptEtAnthropic Ont récemment attiré des dizaines de personnes Google, Meta, OpenAI Et DeepMind Attendez la grande usineAI Les experts se joignent à , Leur financement est 2.25100 millions、1.7100 millions、1.24100 millions、0.65Milliards de dollars É. - U.. Les sociétés de capital - risque et les milliardaires sont désireux de tirer profit de tout succès qu'ils ont obtenu , Qui stimulent le recrutement de ces start - up . Ces entreprises sont en train de créer une sorte de "Transformer " Construire de nouveaux produits et services basés sur les nouvelles technologies .Transformer Permettre aux systèmes d'intelligence artificielle de s'étendre d'une manière qui n'a jamais été envisagée auparavant , Cela signifie qu'il est possible d'améliorer considérablement leur fonctionnalité et leurs capacités. ." Lorsque vous commencez à agrandir ces modèles, , La capacité est Oui.Avec unImpossible. Croissance prévue ,"Cohere PDG Aidan - Gomez a dit CNBC." C'est comme un choc total. ."OpenAIDeGPT-3EtDalle-E,GoogleBert,EtDeepMindDeAlphaFoldEtAlphaStarTout est fait parTransformer Exemples de systèmes d'intelligence artificielle révolutionnaires soutenus .

Lire la suite

 

Bienvenue dans la communauté de pré - Formation

Si vous effectuez ou concentrez une étude d'apprentissage préalable à la formation、Mise en œuvre et application,Bienvenue à“Communauté des sages-Formation préalable-Groupe AC”.Ici,Tu pourrais:

 

  • Apprendre les connaissances de pointe、Résoudre le puzzle

  • Partager les expériences、Montrer le style et le talent

  • Participation à des activités exclusives、Rencontrer des partenaires de recherche

 

Veuillez scanner le Code QR ci - dessous pour rejoindre le Groupe de pré - Formation(Remarques:“Nom+Unité+Formation préalable”Pour vérifier l'entrée dans le Groupe.)

 

原网站

版权声明
本文为[Communauté des sages]所创,转载请带上原文链接,感谢
https://yzsam.com/2022/172/202206211232284387.html