Comment fonctionnent les algorithmes des moteurs de recherche

Un algorithme de recherche est une collection massive d’autres algorithmes, chacun ayant son propre objectif et sa propre tâche. Voici comment tout cela fonctionne. Vous devez comprendre comment cela fonctionne. Comprendre la structure dans laquelle la stratégie fonctionne est primordial pour comprendre non seulement pourquoi cette stratégie fonctionne, mais comment et ce qu’elle essaie d’accomplir. Qu’est-ce qu’un algorithme? Une recette Si vous demandez à Google ce qu’est un algorithme, vous découvrirez que le moteur lui-même (et à peu près tout le monde) le définit comme un processus ou un ensemble de règles à suivre dans les calculs ou autres opérations de résolution de problèmes, en particulier par un ordinateur.  » Si vous prenez quelque chose de cette définition, il est essentiel de comprendre ce que ce n’est pas dans notre contexte ici. Un algorithme n’est pas une formule. Pour comprendre la différence, pourquoi c’est important et ce que chacun fait, considérons un instant le repas que je pourrais placer dans mon assiette ce soir. Nous irons avec un de mes préférés: Rôti de bœuf Sauce (C’est vrai, nous, Canadiens, mangeons plus que de la poutine et du sirop d’érable, bien que les deux soient géniaux, mais probablement pas ensemble.) Le rosbif doit être assaisonné et parfaitement cuit. L’assaisonnement combiné avec le rôti serait un exemple de formule – quelle quantité de chaque chose est nécessaire pour produire un produit. Une deuxième formule utilisée serait la durée et la température à laquelle le rôti doit être cuit, compte tenu de son poids. La même chose se produirait pour chaque élément de la liste.

À un niveau très basique, nous aurions 12 formules (6 éléments x 2 – un pour les mesures et l’autre pour le temps de cuisson et la durée en fonction du volume) faisant un algorithme défini dans le but de créer l’un des plats préférés de Dave. Nous n’incluons même pas les différentes formules et algorithmes nécessaires pour produire les ingrédients eux-mêmes, comme l’élevage d’une vache ou la culture de pommes de terre. Ajoutons cependant une formule de plus – une formule pour considérer la quantité d’aliments différents que je voudrais dans mon assiette. Nous avons donc maintenant un algorithme pour accomplir cette tâche très importante. Fantastique! Il ne nous reste plus qu’à personnaliser cet algorithme pour que le reste de ma famille profite également de son repas. Nous devons tenir compte du fait que chaque personne est différente et voudra des quantités différentes de chaque ingrédient et peut vouloir des assaisonnements différents. Donc, nous ajoutons une formule pour chaque personne. Bien. Un algorithme d’algorithmes Qu’est-ce qu’un algorithme de recherche et une table à manger ont en commun? Beaucoup plus que vous ne le pensez. Examinons quelques-unes des principales caractéristiques d’un site Web à des fins de comparaison. (Peu de « signifiant nulle part près de tout. Comme même pas près.) URL Teneur Images La vitesse Comme nous l’avons vu avec notre algorithme de dîner, chacun de ces domaines est divisé en utilisant différentes formules et, en fait, différents sous-algorithmes. Ce serait peut-être mieux si nous ne le considérons pas comme un algorithme, mais comme des algorithmes. Il est également important de garder à l’esprit que, bien qu’il existe de nombreux algorithmes et d’innombrables formules en jeu, il existe toujours un algorithme.

Son travail est de déterminer comment ces autres sont pondérés pour produire les résultats finaux que nous voyons sur le SERP. Il est donc parfaitement légitime de reconnaître qu’il existe un type d’algorithme au sommet – le seul algorithme pour les gouverner tous, pour ainsi dire – mais reconnaissez toujours qu’il existe d’innombrables autres algorithmes et que ce sont généralement les algorithmes auxquels nous pensons. lorsque nous examinons leur impact sur les résultats de recherche. Maintenant, revenons à notre analogie. Nous avons une pléthore de caractéristiques différentes d’un site Web évalué, tout comme nous avons un certain nombre d’éléments alimentaires à finir dans notre assiette. Pour produire le résultat souhaité, nous devons avoir un grand nombre de formules et de sous-algorithmes pour créer chaque élément sur la plaque et l’algorithme maître pour déterminer la quantité et le placement de chaque élément. Semble familier? Lorsque nous pensons à l’algorithme de Google, « ce à quoi nous nous référons en fait est une collection massive d’algorithmes et de formules, chaque ensemble pour remplir une fonction spécifique et rassemblé par un algorithme principal ou, oserais-je dire, noyau » pour placer le résultats.

Donc nous avons: Des algorithmes comme Panda pour aider Google à juger, filtrer, pénaliser et récompenser le contenu en fonction de caractéristiques spécifiques, et cet algorithme incluait probablement une myriade d’autres algorithmes. L’algorithme Penguin pour juger les liens et y traiter le spam. Mais cet algorithme nécessite certainement des données provenant d’autres algorithmes préexistants qui sont responsables de la valorisation des liens et probablement de nouveaux algorithmes chargés de comprendre les caractéristiques communes du spam de lien afin que l’algorithme Penguin plus grand puisse faire son travail. Algorithmes spécifiques aux tâches. Organisation d’algorithmes. Algorithmes chargés de collecter toutes les données et de les mettre dans un contexte qui produit le résultat souhaité, un SERP que les utilisateurs trouveront utile. Donc là nous l’avons. C’est ainsi que les algorithmes de recherche fonctionnent à leur base. Pourquoi les algorithmes de recherche utilisent des entités L’un des domaines de recherche qui retient une attention décente ces derniers temps, bien que sous-souligné, est l’idée d’entités Pour le contexte, une entité est définie par Google comme: Une chose ou un concept singulier, unique, bien défini et distinguable. » Donc, dans notre analogie avec le dîner, il y a moi. Je suis une entité.

Chaque membre de ma famille est aussi sa propre entité. En fait, ma cellule familiale est une entité en soi. De ce fait, le rôti et chaque ingrédient qui y entre sont également leurs propres entités. Il en va de même pour le pudding du Yorkshire et la farine qui a servi à sa fabrication. Google voit le monde comme un ensemble d’entités. Voici pourquoi: À ma table de dîner, j’ai quatre entités individuelles qui feraient manger l’État »et une foule d’entités consommées. Nous classer tous de cette manière présente de nombreux avantages pour Google par rapport à la simple évaluation de nos activités comme une série de mots. Chaque entité mangeuse peut désormais leur attribuer les entités qui se trouvent dans son assiette (rôti de bœuf, raifort, haricots verts, purée de pommes de terre, pudding du Yorkshire mais pas de sauce pour l’entité xyz1234567890). Google utilise ce type de classification pour juger un site Web. Considérez chaque entité assise à la table comme une page.

L’entité mondiale qui nous représente tous (appelons cette entité Davies ») serait sur le dîner de rosbif», mais chaque entité individuelle représentant un individu (ou une page dans notre analogie) est différente. De cette manière, Google peut facilement classer et juger de l’interdépendance des sites Web et du monde en général. Fondamentalement, les moteurs de recherche ne sont pas responsables de juger un seul site Web – ils doivent tous les classer. L’entité Davies «est considérée comme un dîner de rôti de boeuf», mais l’entité voisine (appelons cette entité Robinsons ») concerne les sautés.» Désormais, si une entité extérieure connue sous le nom de Moocher ”voulait déterminer où manger, les options peuvent être classées selon Moocher en fonction de leurs préférences ou de leur requête. Où (à mon avis) la valeur réelle des entités réside dans ce qui se passe le lendemain. Nous avons des restes. En transformant l’entité rosbif »avec une formule différente et en ajoutant les entités pain, fromage et oignons, nous avons: Comment les algorithmes de recherche utilisent les entités OK, cela peut ne pas sembler évident à quel point cela est important pour comprendre les algorithmes de recherche et comment les entités fonctionnent de cette manière.

Bien que comprendre comment Google voit ce qu’est un site Web dans son ensemble a une valeur évidente, vous vous demandez peut-être pourquoi il est pertinent pour Google de comprendre que mon rôti de bœuf et mon trempette de bœuf sont liés et en fait – proviennent de la même entité principale. Considérons plutôt que Google comprend qu’une page Web concerne le rosbif. Considérons également qu’une autre page y est liée et que cette page concerne la trempette au bœuf. Dans ce scénario, il est extrêmement important que Google sache que le rôti de bœuf et la trempette de bœuf proviennent de la même entité principale. Ils peuvent attribuer de la pertinence à ce lien en fonction de la connectivité de ces entités. Avant que l’idée d’entités n’entre dans la recherche, les moteurs devaient attribuer la pertinence en fonction de la proximité des mots, de la densité et d’autres éléments facilement mal interprétés et manipulés. Les entités sont beaucoup plus difficiles à manipuler. Soit une page concerne une entité, soit elle ne l’est pas. En explorant le Web et en cartographiant les relations courantes entre les entités, les moteurs de recherche peuvent prédire quelles relations devraient avoir le plus de poids.

Alors, comment fonctionnent les algorithmes de recherche? D’accord, nous avons parcouru beaucoup de terrain et vous avez probablement faim. Vous voulez des plats à emporter. Questions de contexte Il est important de comprendre comment les algorithmes fonctionnent pour appliquer le contexte à ce que vous vivez / lisez. Lorsque vous entendez parler d’une mise à jour d’algorithme, il est important de savoir que ce qui est mis à jour est probablement une petite pièce d’un très gros puzzle. Savoir cela aide à interpréter quels aspects d’un site ou du monde sont ajustés dans une mise à jour et comment cet ajustement s’inscrit dans le grand objectif du moteur. Les entités sont très importantes De plus, il est essentiel d’aller de l’avant pour comprendre que les entités: Jouez aujourd’hui un rôle majeur dans les algorithmes de recherche. Ont leurs propres algorithmes. Jouera un rôle de plus en plus important au fil du temps. Sachant cela vous aidera à comprendre non seulement quel contenu est précieux (à quelle distance sont les entités sur lesquelles vous écrivez?), Mais également quels liens sont susceptibles d’être jugés plus favorablement.

Et c’est juste pour ne citer que quelques avantages. Tout dépend de l’intention de l’utilisateur Les algorithmes de recherche fonctionnent comme une grande collection d’autres algorithmes et formules, chacun avec son propre objectif et sa propre tâche, pour produire des résultats dont l’utilisateur sera satisfait. En fait, il existe des algorithmes en place pour surveiller uniquement cet aspect des résultats et effectuer des ajustements lorsque les pages de classement sont considérées comme ne satisfaisant pas l’intention de l’utilisateur en fonction de la façon dont les utilisateurs interagissent avec elles. Cela comprend des algorithmes conçus spécifiquement pour comprendre les entités et comment les entités sont liées les unes aux autres afin de fournir de la pertinence et du contexte aux autres algorithmes.

Cela se passe sur Facebook

Facebook poursuivi par la FTC pour conduite anticoncurrentielle La Federal Trade Commission poursuit Facebook pour avoir illégalement maintenu une position de monopole dans les réseaux sociaux personnels. Bio Suivre Facebook est poursuivi par la Federal Trade Commission (FTC) pour avoir prétendument maintenu sa position de leader du marché avec des années de conduite anticoncurrentielle. Le procès est déposé à compter d’aujourd’hui et les allégations devront être prouvées devant le tribunal avant que toute action ne soit intentée contre Facebook. Néanmoins, cela pourrait marquer un tournant pour Facebook en tant qu’entreprise si le tribunal conclut que les allégations sont vraies. Ce que la FTC espère réaliser en intentant cette action en justice n’est pas la fermeture complète de Facebook. Au contraire, la FTC vise à faire reculer la conduite illégale présumée de Facebook pour rendre le marché des réseaux sociaux à nouveau plus compétitif. Voici toutes les allégations de la FTC contre Facebook et les changements qui pourraient être apportés si Facebook est reconnu coupable. FTC affirme que Facebook a fait quoi? Depuis des années, Facebook maintient illégalement un monopole sur les réseaux sociaux personnels en utilisant des pratiques qui empêchent les autres entreprises de se concurrencer. C’est ce que prétend la FTC dans son procès, affirmant que ces conclusions ont été tirées à la suite d’une longue enquête qui comprenait des procureurs généraux de 46 États. Les acquisitions d’applications concurrentes par Facebook sont un domaine clé sur lequel se concentre le procès, SEO Inside ce qui a essentiellement éliminé sa propre concurrence. En particulier, la FTC conteste l’acquisition d’Instagram en 2012 et de WhatsApp en 2014. Acquisition Instagram Instagram était un rival prometteur de Facebook en 2012. Plutôt que de rester compétitif avec les offres d’Instagram, Facebook a acheté la société pour 1 milliard de dollars. La FTC affirme que l’acquisition a permis à la fois d’éliminer la menace posée par Instagram et de rendre encore plus difficile la concurrence pour d’autres sociétés de réseaux sociaux personnels. Acquisition WhatsApp WhatsApp était le leader mondial de la messagerie mobile en 2014, ce qui en faisait un redoutable ennemi de Facebook Messenger. Facebook a éliminé la menace avec un accord d’acquisition de 19 milliards de dollars. La FTC affirme que l’acquisition a neutralisé la possibilité que WhatsApp soit un jour en concurrence avec Facebook dans les réseaux sociaux et a rendu plus difficile la concurrence pour les autres entreprises dans la messagerie mobile. Imposer des conditions aux logiciels tiers Les allégations de la FTC contre Facebook incluent également des allégations d’imposition de conditions anticoncurrentielles à des logiciels tiers. Facebook est connu pour couper l’accès des développeurs de logiciels à des interconnexions précieuses à sa plate-forme, telles que les API qui permettent à d’autres applications de s’interfacer avec Facebook. Facebook aurait mis des API clés à la disposition des développeurs uniquement à la condition qu’ils ne créent jamais de fonctionnalités susceptibles de concurrencer ce que propose Facebook. Si cette condition n’est pas respectée, l’application du développeur ne sera plus autorisée à s’interfacer avec Facebook. L’application Vine de Twitter est un exemple d’application de cette politique par Facebook. La capacité de l’application à capturer et partager de courtes vidéos reflétait trop étroitement ce que les utilisateurs peuvent faire sur Facebook. En réponse, Facebook a coupé l’accès de Vine à son API, ce qui signifiait que les utilisateurs ne pouvaient plus accéder à leur liste d’amis Facebook à partir de Vine. Que va-t-il se passer sur Facebook? Pour le moment, rien ne se passera sans une longue bataille judiciaire. La FTC est une organisation puissante, mais elle ne peut pas forcer Facebook à faire quoi que ce soit sans prouver que ce que l’entreprise a fait était illégal. Si la FTC prouve sa cause devant les tribunaux, voici ce qui pourrait arriver: Facebook devra céder ses actifs, y compris Instagram et WhatsApp. Il sera interdit à Facebook d’imposer des conditions anticoncurrentielles aux développeurs de logiciels. Facebook devra demander un préavis et une approbation pour les futures fusions et acquisitions. Pour plus de détails, le PDF complet de 53 pages du procès peut être téléchargé ici Déclaration du directeur du Bureau de la concurrence Ian Conner, directeur du Bureau de la concurrence, fait la déclaration suivante concernant la poursuite: Aujourd’hui, la Federal Trade Commission a autorisé une plainte alléguant que Facebook s’est engagé dans une conduite anticoncurrentielle pour maintenir illégalement sa position de monopole sur les réseaux sociaux personnels. La plainte de la Commission allègue que Facebook a entrepris un effort de plusieurs années pour maintenir son monopole par des acquisitions et des actions anticoncurrentielles qui ciblent des rivaux potentiels et naissants. La mesure coercitive d’aujourd’hui vise à rétablir la concurrence dans ce secteur important et à fournir une base pour que les futurs concurrents se développent et innovent sans risquer d’être écrasés par Facebook. L’allègement demandé par la Commission comprend l’annulation des acquisitions antérieures d’Instagram et de WhatsApp par Facebook et l’interdiction pour Facebook de s’engager dans des pratiques anticoncurrentielles supplémentaires qui l’ont aidé à dominer le marché des réseaux sociaux personnels. Nous présentons ces réclamations en coordination avec les procureurs généraux de partout au pays et nous apprécions grandement les efforts de coopération de tous les agents chargés de l’application de la loi impliqués dans cette enquête. Je tiens à remercier le personnel de la Commission pour son travail exceptionnellement acharné pour faire avancer cette plainte, en particulier ceux du Technology Enforcement récemment formé. Division. Ce que le personnel de la Commission a accompli au cours des dix-huit derniers mois est remarquable. Nous sommes impatients de poursuivre et de gagner cette affaire devant les tribunaux, pas dans la presse, et nous ne ferons donc pas de commentaire pour le moment. Le public américain mérite un marché de réseautage social personnel compétitif et dynamique, et nous prenons cette mesure pour restaurer la vigueur concurrentielle nécessaire pour favoriser l’innovation et le choix des consommateurs. Déclaration de Facebook La première, et jusqu’à présent la seule, déclaration publique de Facebook concernant le procès est le tweet ci-dessous: Nous examinons les plaintes et aurons plus à dire bientôt. Des années après que la FTC a autorisé nos acquisitions, le gouvernement veut maintenant une refonte sans tenir compte de l’impact que ce précédent aurait sur la communauté des affaires en général ou sur les personnes qui choisissent nos produits chaque jour.

Les renouvellements amenés par internet

Après l’échec de la bulle en ligne, est apparue l’émergence de ce que l’on a appelé le «Web 2», un site Web axé sur les sites de réseaux sociaux et les informations fournies par les utilisateurs finaux et les ordinateurs cloud. Les fournisseurs de marketing sur les médias sociaux comme Facebook, Youtube et Instagram ont commencé à être parmi les sites Web les plus appréciés en permettant aux utilisateurs de discuter de leur bonheur particulier avec leurs amis avec le monde entier. Les téléphones portables sont devenus capables d’entrer sur le World Wide Web et, avec le développement de smartphones comme l’iphone 4 d’Apple (sorti en 2007), le nombre d’internautes dans le monde est passé d’environ 1 6e dans le monde en 2005 à plus de la moitié en 2020. L’option améliorée d’entrée sans fil a permis à des programmes qui étaient auparavant non rentables. Par exemple, des méthodes de placement dans le monde entier (système de positionnement mondial) associées à une connexion Wi-Fi aident les clients mobiles à trouver des chemins d’échange, à faire des rapports précis d’accidents automobiles et à démarrer des fournisseurs de récupération, et à renforcer le contrôle du trafic ciblé et le contrôle de la surpopulation. En plus des smartphones, des ordinateurs portables wi-fi et des assistants numériques électroniques (PDA) privés, des gadgets portables avec une compréhension vocale et des lunettes de soleil d’exposition uniques ont été créés. Alors que la structure précise du futur Internet n’est tout simplement pas limpide, de nombreuses recommandations d’expansion semblent évidentes. Le premier concerne l’augmentation des vitesses d’entrée dans les fondations et le système. Les frais d’informations sur la colonne vertébrale de 100 milliards de bits (100 gigabits) par seconde sont nombreux aujourd’hui, mais les frais de données de 1 billion de portions (1 térabits) pour chaque 2e ou augmenté pourraient éventuellement devenir commercialement possibles. Si le développement du matériel informatique, des logiciels, des logiciels et de l’accès natif suit le rythme, il peut être facile pour les consommateurs d’accéder aux systèmes à des vitesses de 100 gigabits pour chaque prochain. À ce genre de prix de l’information, la vidéo en ligne à plus haute résolution – certainement plusieurs canaux vidéo – n’occuperait qu’une modeste fraction du taux de transfert de données offert. Le transfert de données restant pourrait être utilisé pour transmettre des informations auxiliaires sur les informations simplement fournies, ce qui permettrait en fait une modification rapide des expositions et la qualité rapide d’un certain nombre de questions de voisinage. Une enquête significative, à la fois communautaire et exclusive, a porté sur des solutions Internet haut débit intégrées qui peuvent simultanément avoir un certain nombre d’indicateurs: données, discours et clip vidéo. En particulier, le gouvernement américain a financé une analyse pour produire de nouvelles capacités de réseau à grande vitesse consacrées au quartier des études scientifiques. Il peut être très clair que la connexion de communication sera probablement un objectif essentiel d’un futur World Wide Web, car plus d’équipements et d’outils sont connectés. En 1998, peu de temps après 4 ans d’études, le World Wide Web Design Job Pressure a publié une nouvelle adresse IP de 128 tad régulièrement conçue pour changer la norme 32 bits standard. En permettant une augmentation considérable du volume d’adresses proposées (2128, plutôt que 232), ce régulier permet de désigner des adresses spéciales pour presque tous les produits numériques imaginables. Par conséquent, grâce à «l’Internet des points», où toutes les machines et unités peuvent être connectées au Web, les expressions «lieu de travail» câblé, résidence et véhicule peuvent toutes revêtir de nouvelles significations, même lorsque l’accessibilité est absolument réseau sans fil. La diffusion de textes numérisés, de photos et de pistes vidéo et audio sur Internet, principalement sur le marché actuel via le World Wide Web, s’est terminée par une explosion des détails. De toute évidence, des outils efficaces sont nécessaires pour gérer les informations dépendant de la communauté. Les informations disponibles sur Internet ces jours-ci peuvent ne pas être proposées le lendemain sans qu’il soit nécessaire de porter une attention particulière aux méthodes de conservation et d’archivage. L’important pour vous de rendre les informations et les faits disponibles en permanence est la structure et le contrôle de ce système. Des référentiels de connaissances, enregistrés en tant qu’objets électroniques numériques, vont bientôt peupler le net. Au début, ces référentiels peuvent être dominés par des objets numériques électroniques spécialement conçus et formatés pour le net, mais avec le temps, ils incluront probablement des objets de tous types dans des formats qui pourront être résolus dynamiquement par les ordinateurs personnels des utilisateurs instantanément. Les mouvements d’objets informatisés d’une base de données vers une autre les laisseront toujours accessibles aux consommateurs qui sont autorisés à y accéder, tandis que les cas d’objets répliqués dans un certain nombre de référentiels offriront des options aux consommateurs qui sont certainement beaucoup mieux capables de se connecter avec un nombre de parties de l’Internet par rapport à d’autres personnes. Les informations et les faits pourraient avoir leur identité unique et, en fait, être un «citoyen de premier type» sur le net.

Le web et la loi de Moore

La législation de Moore, prévision faite par l’ingénieur américain Gordon Moore en 1965 que le nombre de transistors par nick silicium augmente chaque année. Pour un numéro unique du journal des appareils électroniques, Moore devait prévoir les progrès au cours des dix années suivantes. Observant que le nombre complet de composants au cours de ces circuits a pratiquement doublé chaque année, il extrapole allègrement cette augmentation annuelle à la décennie suivante, estimant que les microcircuits de 1975 comprendraient un nombre incroyable de 65000 éléments pour chaque puce. En 1975, parce que le prix du développement a commencé à ralentir, Moore a modifié son calendrier à 2 ans. Sa loi modifiée avait été un peu pessimiste; plus d’un demi-siècle environ à partir de 1961, le nombre de transistors doublait à peu près tous les dix-huit mois. Par conséquent, les publications décrivaient fréquemment la législation de Moore comme si elle avait été inexorable – une législation technologique utilisant l’assurance des règles de mouvement de Newton. Ce qui a rendu possible cette explosion dramatique de la complexité des circuits, c’est la diminution constante de la taille des transistors au fil des ans. Mesurées en millimètres dans les années 1940 retardées, les dimensions d’un transistor moyen au début des années 2010 étaient généralement indiquées en dizaines de nanomètres (un nanomètre devenant un milliardième de mètre) – un facteur de réduction de plus de 100000. Les fonctions de transistor mesurant sous un micron (un micromètre, ou un millionième de mètre) avaient été atteintes tout au long des années 1980, lorsque les puces de mémoire à accessibilité unique dynamique (DRAM) ont commencé à fournir des capacités d’espace de stockage de mégaoctets. À l’aube du 21e siècle, ces caractéristiques approchaient de 0,1 micron, ce qui a permis la création de croustilles et de microprocesseurs de rappel de gigaoctets fonctionnant à des fréquences gigahertz. La loi de Moore s’est poursuivie dans la deuxième décennie du 21e siècle avec l’introduction de transistors tridimensionnels de plusieurs dizaines de nanomètres. RAM, souvenir d’accès entièrement unique, souvenir principal d’ordinateur personnel dans lequel des éléments particuliers peuvent être consultés (lus ou écrits) directement par l’unité centrale dans un laps de temps très court, quelle que soit la série (et donc l’emplacement) dans laquelle ces éléments ont été documentés. Deux types de souvenirs sont possibles avec les circuits à accès aléatoire, la RAM fixe (SRAM) et la mémoire Ram dynamique (DRAM). Une seule puce de rappel est composée de plusieurs milliers de matériaux cellulaires à mémoire. À l’intérieur d’une puce SRAM, chaque cellule de mémoire stocke un chiffre binaire (1 ou) tant que l’énergie est fournie. Dans un pseudo DRAM, la demande de matériel cellulaire de recollection individuelle doit être rafraîchie de temps en temps afin de conserver les données. Parce qu’elle a moins de composants, la DRAM nécessite moins de zone de nick que la SRAM; par conséquent, un pseudo DRAM peut prendre plus de souvenirs, bien que son temps d’accessibilité soit plus lent. Cette législation a permis aux systèmes informatiques de devenir de plus en plus puissants, jusqu’à présent, dans lesquels nous valorisons pleinement la capacité des ordinateurs dans notre travail, comme le référencement, la programmation et la conception Web.

e-biznisi

Tout comprendre sur le click and collect

Au fur et à mesure que les clients changent de plus en plus leurs achats en ligne, ce à quoi ressemble l’accomplissement s’est transformé. Click on And Collect continue de gagner en popularité en tant que design de satisfaction omnicanal avec des revenus plus élevés qui préserveront également l’expérience pratique en magasin. Les clients économisent sur le prix de l’expédition et de la livraison, et apprécient la rapidité et le confort de ramasser leur commande à proximité si cela leur correspond. Cet article examine la simplicité des fonctions de clic et de collecte, les raisons pour lesquelles l’intérêt pour celui-ci est vraiment tendance maintenant et ce que les magasins sont capables de faire pour garantir des expériences de clic et de collecte qui peuvent également être bonnes pour leur entreprise. Aussi appelé achat sur le Web, ramasser en magasin (BOPIS), cliquer sur et accumuler est une sorte de flux omnicanal exactement où les acheteurs achètent des choses sur Internet et achètent leur achat dans un lieu physique, par opposition à leur expédition. . Le lieu de prise en charge est généralement un magasin de détail local, mais peut également être un lieu de travail de publication, un casier développé par objectif ou éventuellement un magasin de détail de divers détaillants. Les consommateurs profitent de la rapidité, du peu coûteux et de la commodité de la conception des commandes. Et aujourd’hui, avec les préoccupations supplémentaires liées à la sécurité et à la santé, il offre un moyen d’éviter de magasiner dans des endroits bondés tout en continuant à profiter de l’avantage des points de vente locaux. Bien que l’intérêt pour le simple clic et rassembler ne soit pas vraiment nouveau, 2020 a vu une énorme augmentation de popularité et en a fait l’un des développements de magasins de détail les plus cool. En 2017, la recherche sur les préférences des clients du magasin Simply Click & Accumulate indiquait que près d’un tiers des consommateurs avaient créé un achat sur le Web et avaient ensuite récupéré leur achat dans un magasin de détail tout au long de la saison des vacances 2016. Passez à 2020, où le ramassage en magasin a augmenté de plus de 554% en glissement annuel en mai. La rencontre en magasin reste un niveau de ressenti important pour les magasins de détail qui cherchent à dynamiser la relation avec leurs clients. Contrairement à la collecte en bordure de rue (une conception de réussite ou autre comparable), il suffit de cliquer et d’accumuler pour offrir aux acheteurs une chance incroyable de voir plus et d’obtenir des produits supplémentaires lorsqu’ils décident de leur commande sur Internet. Optimiser la distance moyenne – Cliquer sur et accumuler est également une méthode permettant aux magasins d’optimiser leur communauté d’expédition et de livraison. Étant donné que les magasins devaient auparavant fournir des articles à leurs détaillants pour le réapprovisionnement, ils peuvent mieux utiliser les véhicules actuels et réduire les frais de transport en livrant simultanément des produits pour la satisfaction en magasin. Alors que les commerçants se sont adaptés à de nouveaux moyens de traiter les marchandises achetées sur Internet au cours de la période de publication de Covid 19, deux nouveaux modèles se démarquent: l’expédition depuis le magasin et la livraison disponible. Plusieurs magasins ont déjà été contraints de fermer des emplacements en raison soit de directives de protection sur place, soit du mouvement parmi les gens de donner la priorité aux investissements essentiels par rapport aux achats discrétionnaires dans les magasins de détail. Pour garantir le prix d’achat de la superficie en pieds carrés, les magasins doivent désormais fonctionner comme un nœud dans l’exécution du commerce électronique. Les modèles d’exécution existants, tels que le Ship-From-Retail Store et le clic sur Et rassembler, deviennent des développements de vente au détail qui mettent en évidence comment utiliser l’empreinte commerciale de la communauté pour réduire le coût de l’exécution des affaires en ligne et améliorer les performances. Les deux versions de réalisation peuvent utiliser des employés actuels ou avoir besoin de sources d’externalisation. Chacun a également besoin d’une intégration avec les techniques d’administration des stocks, pour être en mesure d’être en mesure de savoir exactement où se trouve l’inventaire et de quel magasin de détail ou MFC il doit être réalisé. En tant que modèle, cependant, l’introduction d’un simple clic et collecte nécessite beaucoup moins de changement de fonctionnement que la livraison depuis le magasin. La livraison implique d’autres fonctionnalités complexes telles que la répartition et le routage. Les consommateurs et les directeurs de magasin auront besoin d’un moyen de suivre les conducteurs. Et, bien sûr, la chaîne de contrôle devient difficile et exigera certainement une preuve numérique d’expédition.

Se placer sur Google

Dernièrement, notre site Web et nos clients d’hébergement Web ont saisi le nom de marque de l’un des produits qu’il propose et ont trouvé son concurrent en haut de la page de résultats de recherche de Google (SERP). Pourquoi son nouveau site Web CleverOgre n’était-il pas au meilleur endroit? L’optimisation des moteurs de recherche pourrait-elle l’aider à y arriver? Nous comprenons: chaque fois que vous dépensez beaucoup d’argent directement dans un site Web, vous vous attendez à ce que les gens le trouvent. Malheureusement, ce n’est pas aussi simple que cela. Internet est un endroit bondé et, en fonction de votre entreprise, vous devrez peut-être vous battre contre des dizaines, des centaines, voire des milliers d’autres sites Web pour rester au top de ces SERPs. Malgré ce que vous avez peut-être entendu lors d’une apparition brumeuse mais belle dans une zone de maïs, vous ne pouvez pas simplement vous attendre à «le construire, et ils arriveront». Même un site Web construit de manière fiable ne développe pas le besoin d’un produit ou d’un service, mais il existe des moyens de tirer parti de la demande actuelle grâce à l’optimisation des moteurs de recherche (optimisation des moteurs de recherche). Cela fournit une bonne base sur laquelle construire une technique de référencement efficace, cependant, vous n’allez pas atteindre le sommet – et y rester – sans avoir beaucoup de fonctions supplémentaires. Même les stratégies fondamentales varient considérablement dans les techniques, mais elles incluent généralement tout ou partie des éléments suivants: Recherche, test et ajustement parfait des mots-clés et des phrases utilisés dans le contenu écrit pour prendre en charge les développements et le volume de la recherche. Veiller à ce que toutes les pages Web et tous les articles de votre site incluent une quantité suffisante (minimum de 300 termes) d’articles originaux (non répliqués ou répliqués sur tous les autres sites Web ou pages Web), de niveau et correctement, qui fournissent des solutions à probablement le plus – des sujets explorés et des préoccupations que les clients demandent à des experts de votre entreprise. Ajouter du nouveau contenu sur une base régulière (entre tous les jours et une fois par mois) à votre site Web qui répond aux exigences susmentionnées en matière de contenu et de mots-clés. S’assurer que toutes les photos et images sur le site ont des noms de documents, des titres, des balises alt et des descriptions appropriés et riches en mots-clés qui répondent aux critères mentionnés précédemment pour les mots-clés. Ajout d’un balisage de schéma pour des informations sur votre entreprise, vos produits et services (voir schema.org pour en savoir plus). Persuader plusieurs sites Web fiables et très fréquentés d’ajouter des liens pointant vers votre site régulièrement (backlinks). Maintenir une présence de réseaux sociaux à jour et trépidante sur plusieurs systèmes (Facebook, Youtube, Instagram, You tube, Pinterest, etc.) avec un contenu intéressant et original destiné à ramener les visiteurs vers votre site Web. Exploiter, tester et ajuster des campagnes publicitaires au paiement par clic via les moteurs de recherche Annonces, publicités Facebook ou Twitter, etc. Correction, mise à jour et maintenance de vos listes en ligne sur les principaux annuaires Web. Les moteurs de recherche examinent également des facteurs tels que le nombre de personnes qui accèdent à votre site Web, le nombre de pages qu’ils consultent et le temps passé sur votre site. Plus ces chiffres sont élevés, plus les moteurs de recherche sont susceptibles de suggérer votre site à d’autres personnes. Bon nombre des techniques énumérées ci-dessus visent à améliorer ces mesures et nécessitent des efforts continus. L’optimisation des moteurs de recherche n’est pas une entreprise à faire une fois et vous avez terminé, elle nécessite une évaluation continue, des mises à jour régulières et une maintenance continue. Comme vous pouvez le voir, même une campagne de référencement de niveau fondamental implique de nombreuses heures de travail, ce qui signifie qu’elle n’est pas bon marché. Une stratégie très fondamentale d’optimisation des moteurs de recherche (avec seulement certains des composants mentionnés précédemment) fonctionne entre quelques centaines et quelques milliers de dollars par mois, tandis que des stratégies beaucoup plus au niveau peuvent fonctionner des dizaines de milliers par mois. Certaines des meilleures entreprises sur Internet dans des secteurs vraiment agressifs dépensent des centaines de milliers par an. Cependant, si vous souhaitez commencer à améliorer votre référencement, vous n’avez pas à investir des centaines de milliers. L’une des meilleures façons de commencer est nos services de gestion des listes sur Internet, un moyen efficace et rentable de s’assurer que les clients vous trouvent et d’aider les moteurs de recherche à croire que vous serez qui vous dites être. Si vous souhaitez vérifier gratuitement l’état actuel de vos annonces en ligne, vous pouvez utiliser le lien découvert au bas du blog que nous avons écrit sur nos solutions de gestion des annonces. Si vous souhaitez discuter de ce que nous sommes en mesure de faire pour vous personnellement, nous pouvons vous proposer une offre pour quelques-uns des éléments énumérés ci-dessus et vous mettre en relation avec des experts SEO en lesquels nous avons confiance pour certains autres.

Il faut améliorer l’internet

Nous devons réparer le filet. Après 4 décennies, il propose de commencer à se corroder, chacun lui-même et nous. C’est néanmoins une création merveilleuse et remarquable, mais maintenant il y a des bogues dans la base, des chauves-souris à l’intérieur du beffroi et des trolls dans la cave.Je n’implique pas en fait que cela devienne l’une de ces rires technophobes particulières dissolvant Internet pour recâbler notre cerveaux pour nous offrir la durée de concentration nerveuse de Donald Trump sur les Tweets ou pontifier sur la façon dont nous devons nous déconnecter et flairer les fleurs. Ces scrupules à propos des technologies existent depuis que Platon a craint que la technologie de l’écriture ne mette en danger la mémorisation et l’oratoire. J’adore le Web et chacune de ses ramifications électroniques. A Few Things I bemoan is its drop.Il y a un bug dans son style d’origine qui a d’abord semblé être une fonction mais qui a été régulièrement, et aujourd’hui rapidement, exploité par des pirates et des trolls en ligne et des acteurs malveillants: ses paquets sont encodés en utilisant l’adresse avec leur emplacement cependant, pas avec leur véritable source. En utilisant un système à commutation de circuits, vous pouvez suivre ou retracer les origines des détails, mais ce n’est pas vrai en utilisant la forme à commutation de paquets d’Internet.Cette composition était l’architecture de Tim Berners-Lee ainsi que des inventeurs de les premiers navigateurs Internet conçus pour le World Wide Web. Il a remarquablement permis à l’ensemble des ordinateurs personnels de la terre d’être collectés sur le Web et de naviguer via des liens. Cependant, les liens sont à sens unique. Vous avez réalisé où les liens vous ont amenés. Mais si vous aviez eu une page Web ou un peu de contenu, vous ne saviez pas exactement qui se connectait à vous ou qui arrivait pour utiliser votre contenu, tout cela garantissait l’opportunité de l’anonymat. Vous pouvez faire des commentaires de manière anonyme. Consultez une page Web de manière anonyme. Ingérez des articles de manière anonyme. Avec un travail acharné, envoyez des e-mails de manière anonyme. Et lorsque vous avez trouvé un moyen d’accéder aux hôtes ou aux répertoires de quelqu’un, vous pouvez le faire de manière anonyme.Pendant longtemps, certains grands avantages de la confidentialité sur le net ont compensé ses inconvénients. Les individus ont eu beaucoup plus de liberté pour s’exprimer seuls, ce qui avait été particulièrement utile s’ils avaient été dissidents ou s’ils avaient caché une clé privée. Il a été célébré dans le dessin animé populaire du New Yorker de 1993: « Sur le Web, personne ne sait que vous êtes votre chien ». Maintenant, personne ne peut informer si vous êtes un troll. Ou peut-être un pirate. Ou peut-être un bot. Ou même un adolescent macédonien publiant un récit selon lequel ce pape a soutenu Trump, ce qui a empoisonné le discours civil, activé le piratage, autorisé la cyberintimidation et créé un danger pour le courrier électronique. Sa sécurité naturelle insuffisante a permis aux acteurs russes célèbres de s’attacher au processus démocratique. Le manque d’identifiant protégé et d’authentification intégré au code génétique d’Internet a en outre évité les transactions simples, contrecarré l’inclusion financière, ruiné les types de fabricants d’articles de la société, déchaîné les déluges de courrier indésirable et nous a obligés à utiliser des mots de passe ainsi que Des schémas d’autorisation sous deux aspects qui auraient pu intriguer Houdini: des milliers de milliards de dollars investis ainsi que les points de QI des talents en informatique affectés à des problèmes de protection peuvent en faire un atout, plutôt qu’un stimulant, pour la productivité dans certains domaines. République de Platon, nous comprenons l’histoire de l’Anneau de Gyges. Mettez-le, et vous êtes invisible et anonyme. La préoccupation que Platon demande ouvertement est de savoir si ceux qui ont placé sur la bague en diamant vont être civils et éthiques. Il ne croit pas. Le net lui a fait ses preuves.

L’importance de l’intelligence artificielle à Wall Street

L’intellect synthétique (IA) est utile pour gérer de manière optimale un système préexistant, notamment avec des dangers clairement compris. Il fonctionne exceptionnellement bien au niveau des composants de coordination et de gestion des modèles. Fourni suffisamment de résultats ainsi qu’un signal puissant, il peut déterminer les composants dynamiques profonds beaucoup plus robustement que n’importe quel individu et il est remarquablement remarquable dans les domaines qui nécessitent l’analyse statistique de grands volumes de données. Il peut le faire sans traitement humain. Nous sommes en mesure de garder une machine IA sous le contrôle quotidien de ce type de système, de s’autocorriger immédiatement et d’apprendre des erreurs et de définir les objectifs de ses maîtres de l’être humain. En raison de ce contrôle des dangers et des conseils mini-prudentiels sont très bien adaptés à l’IA. Les problèmes technologiques sous-jacents sont clairement identifiés, de même que les objectifs de niveau supérieur et inférieur. Cependant, les mêmes caractéristiques qui rendront l’IA si idéale pour les autorités mini-prudentielles peuvent également expliquer pourquoi elle pourrait déstabiliser le système économique et améliorer le risque systémique, comme mentionné dans Danielsson et al. (2017). Dans les applications efficaces de haut niveau, un générateur d’IA exerce un pouvoir sur de petites parties d’une difficulté générale, où la solution globale n’est que des sous-alternatives agrégées. Contrôler toutes les petites zones d’une méthode indépendamment revient à manipuler la méthode dans son intégralité. La gestion des dangers et les restrictions microprudentielles sont des exemples de ce type de problème. La première étape du contrôle aléatoire est la modélisation du danger et c’est simple pour l’IA. Cela implique la gestion des coûts du marché avec des techniques statistiques relativement faciles, fonction qui était auparavant bien en cours. La tâche suivante consiste à combiner des informations détaillées sur tous les postes occupés par le biais d’une institution bancaire avec des informations sur les personnes qui choisissent ces placements, en créant un générateur d’IA de contrôle des risques avec une compréhension des risques, des rôles et des fonds humains. Fondamentalement, nous avons du chemin à faire pour arriver à cette conclusion, la majorité des informations nécessaires se trouvent déjà dans la structure informatique des banques et il n’y a pas d’obstacles technologiques insurmontables en cours de route. Il ne reste plus qu’à informer le générateur des objectifs de haut niveau de la banque. L’équipement est capable d’opérer immédiatement des fonctions régulières de gestion des risques et de répartition des avantages, d’établir des limites de lieu, de suggérer qui est licencié et qui recevra des bonus, et de recommander les leçons à acheter. Il en va de même pour la plupart des petites orientations prudentielles. En effet, l’IA a créé un tout nouveau domaine appelé technologies de la législation, ou «regtech». Il n’est vraiment pas si difficile de convertir le livre de règles d’une société de supervision, maintenant pour de nombreux composants en anglais de base, en un moteur de raisonnement informatisé officiel. Cela permet à l’influence de valider la cohérence de ses réglementations et offre aux banques une interface utilisateur de codage logiciel pour valider les méthodes par rapport aux règles. D’un autre côté, l’IA de supervision et également l’IA d’administration des chances des banques peuvent s’interroger instantanément pour s’assurer de leur conformité. Cela signifie également que toutes les informations générées par les institutions bancaires sont correctement structurées et étiquetées et peuvent être traitées instantanément grâce au pouvoir de conformité et de hasard. Il existe néanmoins une meilleure option avant que l’IA de supervision / administration des risques ne devienne une vérité utile, mais ce qui est exactement défini est éminemment concevable en raison de la trajectoire du progrès technique. Le problème clé peut très bien être légitime, gouvernemental et interpersonnel plutôt que technique.

Google lance incognito un challenger à Pinterest alimenté par l’IA dénommé Keen

Le personnel de la région 120 de Google, un incubateur interne qui produit des programmes expérimentaux et des services professionnels, a présenté Eager: un concurrent potentiel de Pinterest qui s’appuie sur l’unité du géant de la recherche qui étudie les connaissances pour organiser les sujets. Désormais disponible sur le Web et sur les systèmes d’exploitation Android, le co-créateur CJ Adams affirme qu’Enthusiastic vise à obtenir un choix alternatif à la recherche «inconsidérée» de flux en ligne. « Sur Keen […] vous dites ce que vous souhaitez consacrer plus de temps, puis vous organisez du contenu en ligne et des gens en qui vous avez confiance pour vous aider à y arriver », écrit Adams dans un article. « Vous venez avec un » vif « , qui peut concerner n’importe quel sujet, qu’il s’agisse de cuisiner du pain savoureux dans votre propre maison, d’entrer dans l’observation des oiseaux ou d’explorer la typographie. Keen vous permet de gérer ce contenu que vous adorez, de parler de votre série avec d’autres et de trouver de nouveaux articles en fonction des choses que vous avez protégées. » Ce n’est naturellement pas seulement un discours particulièrement révélateur. Presque chaque offre de réseau social que vous recherchez souhaite modifier son contenu en fonction des goûts et des aversions d’une manière ou d’une autre. Et Pinterest a déjà saisi la partie axée sur les passe-temps sur ce marché en utilisant sa disposition graphique de conception de pinboard – deux caractéristiques que Keen a l’intention d’imiter. Qu’est-ce que Eager a exactement que Pinterest n’a pas? Eh bien, pour un seul, il fournit à Google la connaissance de la compréhension de la machine, qui, selon Adams, couvrira des «articles utiles concernant vos goûts et vos aversions». «Même si vous n’êtes pas un professionnel sur un sujet, commencez à organiser un enthousiaste et conservez quelques« joyaux »ou liens intrigants que vous trouvez bénéfiques», explique Adams. « Ces informations agissent comme des graines de plantes et aident à découvrir un nombre croissant de contenus pertinents au fil du temps. » Mais contrairement à Pinterest, il n’investit pas non plus massivement dans l’IA. Et bien que le pouvoir du machine learning de découvrir des habitudes dans les détails dépasse celui des êtres humains dans de nombreux endroits, en termes de passe-temps de marché de niche et de goûts et d’aversions, je parierais que les intuitions de groupe d’un grand et actif (oserais-je seulement dire, enthousiaste ?) la base d’utilisateurs dépassera entre-temps celles des appareils. Mais il y a aussi la question de savoir quels moteurs de recherche eux-mêmes s’éloignent de cette entreprise en ce qui concerne les données. La société n’a jamais réussi à détruire dans l’espace interpersonnel, un emplacement d’action sur le Web qui fournit des tas de données lucratives pour se concentrer sur les publicités. Un média social à la mode Pinterest lui donnerait vraiment le temps de se concentrer sur les intérêts des utilisateurs et de collecter ces détails. Et il semble que les informations accumulées par Excited seront rassemblées avec tout ce que Google sait sur les clients. Vous vous connectez à Enthusiastic à l’aide de votre compte bancaire sur les moteurs de recherche, et en cliquant sur le lien « confidentialité » du site, vous vous retrouvez sans aucun doute dans la politique de confidentialité en ligne de Yahoo. À tout prix, il est intéressant de découvrir Yahoo et google forcent son unité à étudier des techniques dans des applications beaucoup plus diverses. Surtout ceux qui semblent vouloir favoriser les goûts et les aversions des utilisateurs dans des intérêts satisfaisants, plutôt que des techniques qui poussent les individus à un plus grand engagement sans avoir à réfléchir à ce que c’est réellement fascinant.

L’intégration du machine learning se répand

L’émission du CES qui se déroule à Vegas chaque mois de janvier contribue toujours à faire la une des journaux, même si elle est parfois considérée comme de simples «jouets pour les gars». Mais il y a une autre émission qui arrive à chaque janvier et qui est censée être consacrée aux jouets. En effet, le centre de réunion Olympia de Londres n’est pas aussi attrayant ou fastueux que Vegas, mais le Plaything Fair de cette année a connu plus que sa juste part de faits saillants de haute technicité. Entre tous les jeux de table vintage qui créent le plus souvent une reprise, ainsi que le dernier barrage de jouets «merde» (apparemment inspirés par la plus récente variété d’émojis d’Apple), il semblait y avoir une démonstration très puissante des jouets et jeux Originate – «science, technologie moderne, architecture et mathématiques» – qui permettent aux jeunes enfants de s’amuser tout en étudiant des capacités qui seront vitales pour leur éducation potentielle et leurs perspectives d’emploi. Il y a toujours eu des jouets conçus pour utiliser la technologie moderne pour former les enfants à des compétences innovantes, avec de nombreuses générations de jeunes qui causent le chaos à la maison avec des ensembles de chimie et des produits architecturaux, ou simplement se penchant vers beaucoup plus d’équipements artistiques comme Etch A Sketch et Spirograph. Mais les jouets et les jeux technologiques actuels ont peut-être commencé avec LEGO en 1986, quand il a sorti pour la première fois des produits LEGO qui intégraient un moteur qui pourrait être géré au moyen d’un ordinateur personnel. Puis, en 1998, LEGO a dévoilé les produits Mindstorms massivement préférés, qui incorporaient une «brique intelligente» automatisée qui permettait aux jeunes de créer de très petits robots capables d’effectuer une variété de tâches tout seuls. Vingt ans plus tard, le développement et le codage sont considérés comme des compétences vitales, en particulier pour l’avenir, et une nouvelle technologie de jouets pour robots est désormais disponible pour les petits de tous les âges. L’un des nombreux honneurs «Hero» au Toy Honest de cette année a rendu visite à Botley, le robot de codage Html (79,99 $), un adorable petit robot à deux roues créé pour de jeunes enfants aussi frais que cinq ans. Botley gardera les points de base pour les jeunes enfants, en utilisant des «cartes de codage» introduisant des méthodes de programmation simples, sans avoir besoin d’un téléphone mobile ou d’une tablette. Au cas où vos adolescents seraient en mesure de gérer un iPhone ou un iPad, ils pourraient essayer le système Osmo Explorer (197 $, pour les 6 ans). Le paquet Osmo contient plusieurs blocs de type LEGO qui représentent des instructions de programmation simples, ainsi qu’un support d’accueil particulier qui déplace ces commandes sur votre iPad, ce qui signifie que votre tout-petit peut animer et gérer juste un petit animal d’infographie sur l’écran . Il existe de nombreux jeux vidéo Osmo qui peuvent également aider avec diverses compétences, comme le jeu en ligne Pizzas Co. (39 $, pour les 5 ans) qui cible l’exploitation d’une petite entreprise et la gestion de l’argent. En tant que fans de Enjoy-Doh chez vos enfants, nous sommes ravis de voir le nouveau Play-Doh Feel (24,99 $, pour les 4 ans), qui vous permet de modeler des styles d’animaux et de les parcourir dans une tablette iPad pour créer votre propre écran personnel. jeux et escapades. Montez de quelques niveaux et il y a une action de robot sévère en cours. LEGO progresse toujours fort, évidemment, et le dernier Mindstorms EV3 vous permet de créer divers robots divers à partir d’un seul paquet. L’EV3 est un peu coûteux – à 349,99 $, pendant longtemps 10 – mais il est assez élégant et implique des composants tels que des effets et des dispositifs d’éclairage qui permettent à vos robots de se déplacer près d’obstacles de manière indépendante. Et, en plus de fournir des applications iOS et Android pour coder vos robots, LEGO est probablement le couple d’entreprises qui propose également une variante Macintosh de son application iPhone, ainsi qu’une excellente collection de didacticiels vidéo de formation sur son site à acquérir. Le rival de LEGO, le Meccano basé au Royaume-Uni, propose sa propre gamme de jouets pour robots, qui sont moins chers – généralement autour de 100 $ à 200 $ pour chaque ensemble – alors qu’ils ne sont pas aussi flexibles et ont tendance à se concentrer sur la fabrication d’un robot distinct. , comme l’effrayant MeccaSpider à plusieurs pattes.