L’intellect synthétique (IA) est utile pour gérer de manière optimale un système préexistant, notamment avec des dangers clairement compris. Il fonctionne exceptionnellement bien au niveau des composants de coordination et de gestion des modèles. Fourni suffisamment de résultats ainsi qu’un signal puissant, il peut déterminer les composants dynamiques profonds beaucoup plus robustement que n’importe quel individu et il est remarquablement remarquable dans les domaines qui nécessitent l’analyse statistique de grands volumes de données. Il peut le faire sans traitement humain. Nous sommes en mesure de garder une machine IA sous le contrôle quotidien de ce type de système, de s’autocorriger immédiatement et d’apprendre des erreurs et de définir les objectifs de ses maîtres de l’être humain. En raison de ce contrôle des dangers et des conseils mini-prudentiels sont très bien adaptés à l’IA. Les problèmes technologiques sous-jacents sont clairement identifiés, de même que les objectifs de niveau supérieur et inférieur. Cependant, les mêmes caractéristiques qui rendront l’IA si idéale pour les autorités mini-prudentielles peuvent également expliquer pourquoi elle pourrait déstabiliser le système économique et améliorer le risque systémique, comme mentionné dans Danielsson et al. (2017). Dans les applications efficaces de haut niveau, un générateur d’IA exerce un pouvoir sur de petites parties d’une difficulté générale, où la solution globale n’est que des sous-alternatives agrégées. Contrôler toutes les petites zones d’une méthode indépendamment revient à manipuler la méthode dans son intégralité. La gestion des dangers et les restrictions microprudentielles sont des exemples de ce type de problème. La première étape du contrôle aléatoire est la modélisation du danger et c’est simple pour l’IA. Cela implique la gestion des coûts du marché avec des techniques statistiques relativement faciles, fonction qui était auparavant bien en cours. La tâche suivante consiste à combiner des informations détaillées sur tous les postes occupés par le biais d’une institution bancaire avec des informations sur les personnes qui choisissent ces placements, en créant un générateur d’IA de contrôle des risques avec une compréhension des risques, des rôles et des fonds humains. Fondamentalement, nous avons du chemin à faire pour arriver à cette conclusion, la majorité des informations nécessaires se trouvent déjà dans la structure informatique des banques et il n’y a pas d’obstacles technologiques insurmontables en cours de route. Il ne reste plus qu’à informer le générateur des objectifs de haut niveau de la banque. L’équipement est capable d’opérer immédiatement des fonctions régulières de gestion des risques et de répartition des avantages, d’établir des limites de lieu, de suggérer qui est licencié et qui recevra des bonus, et de recommander les leçons à acheter. Il en va de même pour la plupart des petites orientations prudentielles. En effet, l’IA a créé un tout nouveau domaine appelé technologies de la législation, ou «regtech». Il n’est vraiment pas si difficile de convertir le livre de règles d’une société de supervision, maintenant pour de nombreux composants en anglais de base, en un moteur de raisonnement informatisé officiel. Cela permet à l’influence de valider la cohérence de ses réglementations et offre aux banques une interface utilisateur de codage logiciel pour valider les méthodes par rapport aux règles. D’un autre côté, l’IA de supervision et également l’IA d’administration des chances des banques peuvent s’interroger instantanément pour s’assurer de leur conformité. Cela signifie également que toutes les informations générées par les institutions bancaires sont correctement structurées et étiquetées et peuvent être traitées instantanément grâce au pouvoir de conformité et de hasard. Il existe néanmoins une meilleure option avant que l’IA de supervision / administration des risques ne devienne une vérité utile, mais ce qui est exactement défini est éminemment concevable en raison de la trajectoire du progrès technique. Le problème clé peut très bien être légitime, gouvernemental et interpersonnel plutôt que technique.