Cela se passe sur Facebook

Facebook poursuivi par la FTC pour conduite anticoncurrentielle La Federal Trade Commission poursuit Facebook pour avoir illégalement maintenu une position de monopole dans les réseaux sociaux personnels. Bio Suivre Facebook est poursuivi par la Federal Trade Commission (FTC) pour avoir prétendument maintenu sa position de leader du marché avec des années de conduite anticoncurrentielle. Le procès est déposé à compter d’aujourd’hui et les allégations devront être prouvées devant le tribunal avant que toute action ne soit intentée contre Facebook. Néanmoins, cela pourrait marquer un tournant pour Facebook en tant qu’entreprise si le tribunal conclut que les allégations sont vraies. Ce que la FTC espère réaliser en intentant cette action en justice n’est pas la fermeture complète de Facebook. Au contraire, la FTC vise à faire reculer la conduite illégale présumée de Facebook pour rendre le marché des réseaux sociaux à nouveau plus compétitif. Voici toutes les allégations de la FTC contre Facebook et les changements qui pourraient être apportés si Facebook est reconnu coupable. FTC affirme que Facebook a fait quoi? Depuis des années, Facebook maintient illégalement un monopole sur les réseaux sociaux personnels en utilisant des pratiques qui empêchent les autres entreprises de se concurrencer. C’est ce que prétend la FTC dans son procès, affirmant que ces conclusions ont été tirées à la suite d’une longue enquête qui comprenait des procureurs généraux de 46 États. Les acquisitions d’applications concurrentes par Facebook sont un domaine clé sur lequel se concentre le procès, SEO Inside ce qui a essentiellement éliminé sa propre concurrence. En particulier, la FTC conteste l’acquisition d’Instagram en 2012 et de WhatsApp en 2014. Acquisition Instagram Instagram était un rival prometteur de Facebook en 2012. Plutôt que de rester compétitif avec les offres d’Instagram, Facebook a acheté la société pour 1 milliard de dollars. La FTC affirme que l’acquisition a permis à la fois d’éliminer la menace posée par Instagram et de rendre encore plus difficile la concurrence pour d’autres sociétés de réseaux sociaux personnels. Acquisition WhatsApp WhatsApp était le leader mondial de la messagerie mobile en 2014, ce qui en faisait un redoutable ennemi de Facebook Messenger. Facebook a éliminé la menace avec un accord d’acquisition de 19 milliards de dollars. La FTC affirme que l’acquisition a neutralisé la possibilité que WhatsApp soit un jour en concurrence avec Facebook dans les réseaux sociaux et a rendu plus difficile la concurrence pour les autres entreprises dans la messagerie mobile. Imposer des conditions aux logiciels tiers Les allégations de la FTC contre Facebook incluent également des allégations d’imposition de conditions anticoncurrentielles à des logiciels tiers. Facebook est connu pour couper l’accès des développeurs de logiciels à des interconnexions précieuses à sa plate-forme, telles que les API qui permettent à d’autres applications de s’interfacer avec Facebook. Facebook aurait mis des API clés à la disposition des développeurs uniquement à la condition qu’ils ne créent jamais de fonctionnalités susceptibles de concurrencer ce que propose Facebook. Si cette condition n’est pas respectée, l’application du développeur ne sera plus autorisée à s’interfacer avec Facebook. L’application Vine de Twitter est un exemple d’application de cette politique par Facebook. La capacité de l’application à capturer et partager de courtes vidéos reflétait trop étroitement ce que les utilisateurs peuvent faire sur Facebook. En réponse, Facebook a coupé l’accès de Vine à son API, ce qui signifiait que les utilisateurs ne pouvaient plus accéder à leur liste d’amis Facebook à partir de Vine. Que va-t-il se passer sur Facebook? Pour le moment, rien ne se passera sans une longue bataille judiciaire. La FTC est une organisation puissante, mais elle ne peut pas forcer Facebook à faire quoi que ce soit sans prouver que ce que l’entreprise a fait était illégal. Si la FTC prouve sa cause devant les tribunaux, voici ce qui pourrait arriver: Facebook devra céder ses actifs, y compris Instagram et WhatsApp. Il sera interdit à Facebook d’imposer des conditions anticoncurrentielles aux développeurs de logiciels. Facebook devra demander un préavis et une approbation pour les futures fusions et acquisitions. Pour plus de détails, le PDF complet de 53 pages du procès peut être téléchargé ici Déclaration du directeur du Bureau de la concurrence Ian Conner, directeur du Bureau de la concurrence, fait la déclaration suivante concernant la poursuite: Aujourd’hui, la Federal Trade Commission a autorisé une plainte alléguant que Facebook s’est engagé dans une conduite anticoncurrentielle pour maintenir illégalement sa position de monopole sur les réseaux sociaux personnels. La plainte de la Commission allègue que Facebook a entrepris un effort de plusieurs années pour maintenir son monopole par des acquisitions et des actions anticoncurrentielles qui ciblent des rivaux potentiels et naissants. La mesure coercitive d’aujourd’hui vise à rétablir la concurrence dans ce secteur important et à fournir une base pour que les futurs concurrents se développent et innovent sans risquer d’être écrasés par Facebook. L’allègement demandé par la Commission comprend l’annulation des acquisitions antérieures d’Instagram et de WhatsApp par Facebook et l’interdiction pour Facebook de s’engager dans des pratiques anticoncurrentielles supplémentaires qui l’ont aidé à dominer le marché des réseaux sociaux personnels. Nous présentons ces réclamations en coordination avec les procureurs généraux de partout au pays et nous apprécions grandement les efforts de coopération de tous les agents chargés de l’application de la loi impliqués dans cette enquête. Je tiens à remercier le personnel de la Commission pour son travail exceptionnellement acharné pour faire avancer cette plainte, en particulier ceux du Technology Enforcement récemment formé. Division. Ce que le personnel de la Commission a accompli au cours des dix-huit derniers mois est remarquable. Nous sommes impatients de poursuivre et de gagner cette affaire devant les tribunaux, pas dans la presse, et nous ne ferons donc pas de commentaire pour le moment. Le public américain mérite un marché de réseautage social personnel compétitif et dynamique, et nous prenons cette mesure pour restaurer la vigueur concurrentielle nécessaire pour favoriser l’innovation et le choix des consommateurs. Déclaration de Facebook La première, et jusqu’à présent la seule, déclaration publique de Facebook concernant le procès est le tweet ci-dessous: Nous examinons les plaintes et aurons plus à dire bientôt. Des années après que la FTC a autorisé nos acquisitions, le gouvernement veut maintenant une refonte sans tenir compte de l’impact que ce précédent aurait sur la communauté des affaires en général ou sur les personnes qui choisissent nos produits chaque jour.

Les renouvellements amenés par internet

Après l’échec de la bulle en ligne, est apparue l’émergence de ce que l’on a appelé le «Web 2», un site Web axé sur les sites de réseaux sociaux et les informations fournies par les utilisateurs finaux et les ordinateurs cloud. Les fournisseurs de marketing sur les médias sociaux comme Facebook, Youtube et Instagram ont commencé à être parmi les sites Web les plus appréciés en permettant aux utilisateurs de discuter de leur bonheur particulier avec leurs amis avec le monde entier. Les téléphones portables sont devenus capables d’entrer sur le World Wide Web et, avec le développement de smartphones comme l’iphone 4 d’Apple (sorti en 2007), le nombre d’internautes dans le monde est passé d’environ 1 6e dans le monde en 2005 à plus de la moitié en 2020. L’option améliorée d’entrée sans fil a permis à des programmes qui étaient auparavant non rentables. Par exemple, des méthodes de placement dans le monde entier (système de positionnement mondial) associées à une connexion Wi-Fi aident les clients mobiles à trouver des chemins d’échange, à faire des rapports précis d’accidents automobiles et à démarrer des fournisseurs de récupération, et à renforcer le contrôle du trafic ciblé et le contrôle de la surpopulation. En plus des smartphones, des ordinateurs portables wi-fi et des assistants numériques électroniques (PDA) privés, des gadgets portables avec une compréhension vocale et des lunettes de soleil d’exposition uniques ont été créés. Alors que la structure précise du futur Internet n’est tout simplement pas limpide, de nombreuses recommandations d’expansion semblent évidentes. Le premier concerne l’augmentation des vitesses d’entrée dans les fondations et le système. Les frais d’informations sur la colonne vertébrale de 100 milliards de bits (100 gigabits) par seconde sont nombreux aujourd’hui, mais les frais de données de 1 billion de portions (1 térabits) pour chaque 2e ou augmenté pourraient éventuellement devenir commercialement possibles. Si le développement du matériel informatique, des logiciels, des logiciels et de l’accès natif suit le rythme, il peut être facile pour les consommateurs d’accéder aux systèmes à des vitesses de 100 gigabits pour chaque prochain. À ce genre de prix de l’information, la vidéo en ligne à plus haute résolution – certainement plusieurs canaux vidéo – n’occuperait qu’une modeste fraction du taux de transfert de données offert. Le transfert de données restant pourrait être utilisé pour transmettre des informations auxiliaires sur les informations simplement fournies, ce qui permettrait en fait une modification rapide des expositions et la qualité rapide d’un certain nombre de questions de voisinage. Une enquête significative, à la fois communautaire et exclusive, a porté sur des solutions Internet haut débit intégrées qui peuvent simultanément avoir un certain nombre d’indicateurs: données, discours et clip vidéo. En particulier, le gouvernement américain a financé une analyse pour produire de nouvelles capacités de réseau à grande vitesse consacrées au quartier des études scientifiques. Il peut être très clair que la connexion de communication sera probablement un objectif essentiel d’un futur World Wide Web, car plus d’équipements et d’outils sont connectés. En 1998, peu de temps après 4 ans d’études, le World Wide Web Design Job Pressure a publié une nouvelle adresse IP de 128 tad régulièrement conçue pour changer la norme 32 bits standard. En permettant une augmentation considérable du volume d’adresses proposées (2128, plutôt que 232), ce régulier permet de désigner des adresses spéciales pour presque tous les produits numériques imaginables. Par conséquent, grâce à «l’Internet des points», où toutes les machines et unités peuvent être connectées au Web, les expressions «lieu de travail» câblé, résidence et véhicule peuvent toutes revêtir de nouvelles significations, même lorsque l’accessibilité est absolument réseau sans fil. La diffusion de textes numérisés, de photos et de pistes vidéo et audio sur Internet, principalement sur le marché actuel via le World Wide Web, s’est terminée par une explosion des détails. De toute évidence, des outils efficaces sont nécessaires pour gérer les informations dépendant de la communauté. Les informations disponibles sur Internet ces jours-ci peuvent ne pas être proposées le lendemain sans qu’il soit nécessaire de porter une attention particulière aux méthodes de conservation et d’archivage. L’important pour vous de rendre les informations et les faits disponibles en permanence est la structure et le contrôle de ce système. Des référentiels de connaissances, enregistrés en tant qu’objets électroniques numériques, vont bientôt peupler le net. Au début, ces référentiels peuvent être dominés par des objets numériques électroniques spécialement conçus et formatés pour le net, mais avec le temps, ils incluront probablement des objets de tous types dans des formats qui pourront être résolus dynamiquement par les ordinateurs personnels des utilisateurs instantanément. Les mouvements d’objets informatisés d’une base de données vers une autre les laisseront toujours accessibles aux consommateurs qui sont autorisés à y accéder, tandis que les cas d’objets répliqués dans un certain nombre de référentiels offriront des options aux consommateurs qui sont certainement beaucoup mieux capables de se connecter avec un nombre de parties de l’Internet par rapport à d’autres personnes. Les informations et les faits pourraient avoir leur identité unique et, en fait, être un «citoyen de premier type» sur le net.

Le web et la loi de Moore

La législation de Moore, prévision faite par l’ingénieur américain Gordon Moore en 1965 que le nombre de transistors par nick silicium augmente chaque année. Pour un numéro unique du journal des appareils électroniques, Moore devait prévoir les progrès au cours des dix années suivantes. Observant que le nombre complet de composants au cours de ces circuits a pratiquement doublé chaque année, il extrapole allègrement cette augmentation annuelle à la décennie suivante, estimant que les microcircuits de 1975 comprendraient un nombre incroyable de 65000 éléments pour chaque puce. En 1975, parce que le prix du développement a commencé à ralentir, Moore a modifié son calendrier à 2 ans. Sa loi modifiée avait été un peu pessimiste; plus d’un demi-siècle environ à partir de 1961, le nombre de transistors doublait à peu près tous les dix-huit mois. Par conséquent, les publications décrivaient fréquemment la législation de Moore comme si elle avait été inexorable – une législation technologique utilisant l’assurance des règles de mouvement de Newton. Ce qui a rendu possible cette explosion dramatique de la complexité des circuits, c’est la diminution constante de la taille des transistors au fil des ans. Mesurées en millimètres dans les années 1940 retardées, les dimensions d’un transistor moyen au début des années 2010 étaient généralement indiquées en dizaines de nanomètres (un nanomètre devenant un milliardième de mètre) – un facteur de réduction de plus de 100000. Les fonctions de transistor mesurant sous un micron (un micromètre, ou un millionième de mètre) avaient été atteintes tout au long des années 1980, lorsque les puces de mémoire à accessibilité unique dynamique (DRAM) ont commencé à fournir des capacités d’espace de stockage de mégaoctets. À l’aube du 21e siècle, ces caractéristiques approchaient de 0,1 micron, ce qui a permis la création de croustilles et de microprocesseurs de rappel de gigaoctets fonctionnant à des fréquences gigahertz. La loi de Moore s’est poursuivie dans la deuxième décennie du 21e siècle avec l’introduction de transistors tridimensionnels de plusieurs dizaines de nanomètres. RAM, souvenir d’accès entièrement unique, souvenir principal d’ordinateur personnel dans lequel des éléments particuliers peuvent être consultés (lus ou écrits) directement par l’unité centrale dans un laps de temps très court, quelle que soit la série (et donc l’emplacement) dans laquelle ces éléments ont été documentés. Deux types de souvenirs sont possibles avec les circuits à accès aléatoire, la RAM fixe (SRAM) et la mémoire Ram dynamique (DRAM). Une seule puce de rappel est composée de plusieurs milliers de matériaux cellulaires à mémoire. À l’intérieur d’une puce SRAM, chaque cellule de mémoire stocke un chiffre binaire (1 ou) tant que l’énergie est fournie. Dans un pseudo DRAM, la demande de matériel cellulaire de recollection individuelle doit être rafraîchie de temps en temps afin de conserver les données. Parce qu’elle a moins de composants, la DRAM nécessite moins de zone de nick que la SRAM; par conséquent, un pseudo DRAM peut prendre plus de souvenirs, bien que son temps d’accessibilité soit plus lent. Cette législation a permis aux systèmes informatiques de devenir de plus en plus puissants, jusqu’à présent, dans lesquels nous valorisons pleinement la capacité des ordinateurs dans notre travail, comme le référencement, la programmation et la conception Web.

e-biznisi

Tout comprendre sur le click and collect

Au fur et à mesure que les clients changent de plus en plus leurs achats en ligne, ce à quoi ressemble l’accomplissement s’est transformé. Click on And Collect continue de gagner en popularité en tant que design de satisfaction omnicanal avec des revenus plus élevés qui préserveront également l’expérience pratique en magasin. Les clients économisent sur le prix de l’expédition et de la livraison, et apprécient la rapidité et le confort de ramasser leur commande à proximité si cela leur correspond. Cet article examine la simplicité des fonctions de clic et de collecte, les raisons pour lesquelles l’intérêt pour celui-ci est vraiment tendance maintenant et ce que les magasins sont capables de faire pour garantir des expériences de clic et de collecte qui peuvent également être bonnes pour leur entreprise. Aussi appelé achat sur le Web, ramasser en magasin (BOPIS), cliquer sur et accumuler est une sorte de flux omnicanal exactement où les acheteurs achètent des choses sur Internet et achètent leur achat dans un lieu physique, par opposition à leur expédition. . Le lieu de prise en charge est généralement un magasin de détail local, mais peut également être un lieu de travail de publication, un casier développé par objectif ou éventuellement un magasin de détail de divers détaillants. Les consommateurs profitent de la rapidité, du peu coûteux et de la commodité de la conception des commandes. Et aujourd’hui, avec les préoccupations supplémentaires liées à la sécurité et à la santé, il offre un moyen d’éviter de magasiner dans des endroits bondés tout en continuant à profiter de l’avantage des points de vente locaux. Bien que l’intérêt pour le simple clic et rassembler ne soit pas vraiment nouveau, 2020 a vu une énorme augmentation de popularité et en a fait l’un des développements de magasins de détail les plus cool. En 2017, la recherche sur les préférences des clients du magasin Simply Click & Accumulate indiquait que près d’un tiers des consommateurs avaient créé un achat sur le Web et avaient ensuite récupéré leur achat dans un magasin de détail tout au long de la saison des vacances 2016. Passez à 2020, où le ramassage en magasin a augmenté de plus de 554% en glissement annuel en mai. La rencontre en magasin reste un niveau de ressenti important pour les magasins de détail qui cherchent à dynamiser la relation avec leurs clients. Contrairement à la collecte en bordure de rue (une conception de réussite ou autre comparable), il suffit de cliquer et d’accumuler pour offrir aux acheteurs une chance incroyable de voir plus et d’obtenir des produits supplémentaires lorsqu’ils décident de leur commande sur Internet. Optimiser la distance moyenne – Cliquer sur et accumuler est également une méthode permettant aux magasins d’optimiser leur communauté d’expédition et de livraison. Étant donné que les magasins devaient auparavant fournir des articles à leurs détaillants pour le réapprovisionnement, ils peuvent mieux utiliser les véhicules actuels et réduire les frais de transport en livrant simultanément des produits pour la satisfaction en magasin. Alors que les commerçants se sont adaptés à de nouveaux moyens de traiter les marchandises achetées sur Internet au cours de la période de publication de Covid 19, deux nouveaux modèles se démarquent: l’expédition depuis le magasin et la livraison disponible. Plusieurs magasins ont déjà été contraints de fermer des emplacements en raison soit de directives de protection sur place, soit du mouvement parmi les gens de donner la priorité aux investissements essentiels par rapport aux achats discrétionnaires dans les magasins de détail. Pour garantir le prix d’achat de la superficie en pieds carrés, les magasins doivent désormais fonctionner comme un nœud dans l’exécution du commerce électronique. Les modèles d’exécution existants, tels que le Ship-From-Retail Store et le clic sur Et rassembler, deviennent des développements de vente au détail qui mettent en évidence comment utiliser l’empreinte commerciale de la communauté pour réduire le coût de l’exécution des affaires en ligne et améliorer les performances. Les deux versions de réalisation peuvent utiliser des employés actuels ou avoir besoin de sources d’externalisation. Chacun a également besoin d’une intégration avec les techniques d’administration des stocks, pour être en mesure d’être en mesure de savoir exactement où se trouve l’inventaire et de quel magasin de détail ou MFC il doit être réalisé. En tant que modèle, cependant, l’introduction d’un simple clic et collecte nécessite beaucoup moins de changement de fonctionnement que la livraison depuis le magasin. La livraison implique d’autres fonctionnalités complexes telles que la répartition et le routage. Les consommateurs et les directeurs de magasin auront besoin d’un moyen de suivre les conducteurs. Et, bien sûr, la chaîne de contrôle devient difficile et exigera certainement une preuve numérique d’expédition.

Se placer sur Google

Dernièrement, notre site Web et nos clients d’hébergement Web ont saisi le nom de marque de l’un des produits qu’il propose et ont trouvé son concurrent en haut de la page de résultats de recherche de Google (SERP). Pourquoi son nouveau site Web CleverOgre n’était-il pas au meilleur endroit? L’optimisation des moteurs de recherche pourrait-elle l’aider à y arriver? Nous comprenons: chaque fois que vous dépensez beaucoup d’argent directement dans un site Web, vous vous attendez à ce que les gens le trouvent. Malheureusement, ce n’est pas aussi simple que cela. Internet est un endroit bondé et, en fonction de votre entreprise, vous devrez peut-être vous battre contre des dizaines, des centaines, voire des milliers d’autres sites Web pour rester au top de ces SERPs. Malgré ce que vous avez peut-être entendu lors d’une apparition brumeuse mais belle dans une zone de maïs, vous ne pouvez pas simplement vous attendre à «le construire, et ils arriveront». Même un site Web construit de manière fiable ne développe pas le besoin d’un produit ou d’un service, mais il existe des moyens de tirer parti de la demande actuelle grâce à l’optimisation des moteurs de recherche (optimisation des moteurs de recherche). Cela fournit une bonne base sur laquelle construire une technique de référencement efficace, cependant, vous n’allez pas atteindre le sommet – et y rester – sans avoir beaucoup de fonctions supplémentaires. Même les stratégies fondamentales varient considérablement dans les techniques, mais elles incluent généralement tout ou partie des éléments suivants: Recherche, test et ajustement parfait des mots-clés et des phrases utilisés dans le contenu écrit pour prendre en charge les développements et le volume de la recherche. Veiller à ce que toutes les pages Web et tous les articles de votre site incluent une quantité suffisante (minimum de 300 termes) d’articles originaux (non répliqués ou répliqués sur tous les autres sites Web ou pages Web), de niveau et correctement, qui fournissent des solutions à probablement le plus – des sujets explorés et des préoccupations que les clients demandent à des experts de votre entreprise. Ajouter du nouveau contenu sur une base régulière (entre tous les jours et une fois par mois) à votre site Web qui répond aux exigences susmentionnées en matière de contenu et de mots-clés. S’assurer que toutes les photos et images sur le site ont des noms de documents, des titres, des balises alt et des descriptions appropriés et riches en mots-clés qui répondent aux critères mentionnés précédemment pour les mots-clés. Ajout d’un balisage de schéma pour des informations sur votre entreprise, vos produits et services (voir schema.org pour en savoir plus). Persuader plusieurs sites Web fiables et très fréquentés d’ajouter des liens pointant vers votre site régulièrement (backlinks). Maintenir une présence de réseaux sociaux à jour et trépidante sur plusieurs systèmes (Facebook, Youtube, Instagram, You tube, Pinterest, etc.) avec un contenu intéressant et original destiné à ramener les visiteurs vers votre site Web. Exploiter, tester et ajuster des campagnes publicitaires au paiement par clic via les moteurs de recherche Annonces, publicités Facebook ou Twitter, etc. Correction, mise à jour et maintenance de vos listes en ligne sur les principaux annuaires Web. Les moteurs de recherche examinent également des facteurs tels que le nombre de personnes qui accèdent à votre site Web, le nombre de pages qu’ils consultent et le temps passé sur votre site. Plus ces chiffres sont élevés, plus les moteurs de recherche sont susceptibles de suggérer votre site à d’autres personnes. Bon nombre des techniques énumérées ci-dessus visent à améliorer ces mesures et nécessitent des efforts continus. L’optimisation des moteurs de recherche n’est pas une entreprise à faire une fois et vous avez terminé, elle nécessite une évaluation continue, des mises à jour régulières et une maintenance continue. Comme vous pouvez le voir, même une campagne de référencement de niveau fondamental implique de nombreuses heures de travail, ce qui signifie qu’elle n’est pas bon marché. Une stratégie très fondamentale d’optimisation des moteurs de recherche (avec seulement certains des composants mentionnés précédemment) fonctionne entre quelques centaines et quelques milliers de dollars par mois, tandis que des stratégies beaucoup plus au niveau peuvent fonctionner des dizaines de milliers par mois. Certaines des meilleures entreprises sur Internet dans des secteurs vraiment agressifs dépensent des centaines de milliers par an. Cependant, si vous souhaitez commencer à améliorer votre référencement, vous n’avez pas à investir des centaines de milliers. L’une des meilleures façons de commencer est nos services de gestion des listes sur Internet, un moyen efficace et rentable de s’assurer que les clients vous trouvent et d’aider les moteurs de recherche à croire que vous serez qui vous dites être. Si vous souhaitez vérifier gratuitement l’état actuel de vos annonces en ligne, vous pouvez utiliser le lien découvert au bas du blog que nous avons écrit sur nos solutions de gestion des annonces. Si vous souhaitez discuter de ce que nous sommes en mesure de faire pour vous personnellement, nous pouvons vous proposer une offre pour quelques-uns des éléments énumérés ci-dessus et vous mettre en relation avec des experts SEO en lesquels nous avons confiance pour certains autres.

Il faut améliorer l’internet

Nous devons réparer le filet. Après 4 décennies, il propose de commencer à se corroder, chacun lui-même et nous. C’est néanmoins une création merveilleuse et remarquable, mais maintenant il y a des bogues dans la base, des chauves-souris à l’intérieur du beffroi et des trolls dans la cave.Je n’implique pas en fait que cela devienne l’une de ces rires technophobes particulières dissolvant Internet pour recâbler notre cerveaux pour nous offrir la durée de concentration nerveuse de Donald Trump sur les Tweets ou pontifier sur la façon dont nous devons nous déconnecter et flairer les fleurs. Ces scrupules à propos des technologies existent depuis que Platon a craint que la technologie de l’écriture ne mette en danger la mémorisation et l’oratoire. J’adore le Web et chacune de ses ramifications électroniques. A Few Things I bemoan is its drop.Il y a un bug dans son style d’origine qui a d’abord semblé être une fonction mais qui a été régulièrement, et aujourd’hui rapidement, exploité par des pirates et des trolls en ligne et des acteurs malveillants: ses paquets sont encodés en utilisant l’adresse avec leur emplacement cependant, pas avec leur véritable source. En utilisant un système à commutation de circuits, vous pouvez suivre ou retracer les origines des détails, mais ce n’est pas vrai en utilisant la forme à commutation de paquets d’Internet.Cette composition était l’architecture de Tim Berners-Lee ainsi que des inventeurs de les premiers navigateurs Internet conçus pour le World Wide Web. Il a remarquablement permis à l’ensemble des ordinateurs personnels de la terre d’être collectés sur le Web et de naviguer via des liens. Cependant, les liens sont à sens unique. Vous avez réalisé où les liens vous ont amenés. Mais si vous aviez eu une page Web ou un peu de contenu, vous ne saviez pas exactement qui se connectait à vous ou qui arrivait pour utiliser votre contenu, tout cela garantissait l’opportunité de l’anonymat. Vous pouvez faire des commentaires de manière anonyme. Consultez une page Web de manière anonyme. Ingérez des articles de manière anonyme. Avec un travail acharné, envoyez des e-mails de manière anonyme. Et lorsque vous avez trouvé un moyen d’accéder aux hôtes ou aux répertoires de quelqu’un, vous pouvez le faire de manière anonyme.Pendant longtemps, certains grands avantages de la confidentialité sur le net ont compensé ses inconvénients. Les individus ont eu beaucoup plus de liberté pour s’exprimer seuls, ce qui avait été particulièrement utile s’ils avaient été dissidents ou s’ils avaient caché une clé privée. Il a été célébré dans le dessin animé populaire du New Yorker de 1993: « Sur le Web, personne ne sait que vous êtes votre chien ». Maintenant, personne ne peut informer si vous êtes un troll. Ou peut-être un pirate. Ou peut-être un bot. Ou même un adolescent macédonien publiant un récit selon lequel ce pape a soutenu Trump, ce qui a empoisonné le discours civil, activé le piratage, autorisé la cyberintimidation et créé un danger pour le courrier électronique. Sa sécurité naturelle insuffisante a permis aux acteurs russes célèbres de s’attacher au processus démocratique. Le manque d’identifiant protégé et d’authentification intégré au code génétique d’Internet a en outre évité les transactions simples, contrecarré l’inclusion financière, ruiné les types de fabricants d’articles de la société, déchaîné les déluges de courrier indésirable et nous a obligés à utiliser des mots de passe ainsi que Des schémas d’autorisation sous deux aspects qui auraient pu intriguer Houdini: des milliers de milliards de dollars investis ainsi que les points de QI des talents en informatique affectés à des problèmes de protection peuvent en faire un atout, plutôt qu’un stimulant, pour la productivité dans certains domaines. République de Platon, nous comprenons l’histoire de l’Anneau de Gyges. Mettez-le, et vous êtes invisible et anonyme. La préoccupation que Platon demande ouvertement est de savoir si ceux qui ont placé sur la bague en diamant vont être civils et éthiques. Il ne croit pas. Le net lui a fait ses preuves.

L’importance de l’intelligence artificielle à Wall Street

L’intellect synthétique (IA) est utile pour gérer de manière optimale un système préexistant, notamment avec des dangers clairement compris. Il fonctionne exceptionnellement bien au niveau des composants de coordination et de gestion des modèles. Fourni suffisamment de résultats ainsi qu’un signal puissant, il peut déterminer les composants dynamiques profonds beaucoup plus robustement que n’importe quel individu et il est remarquablement remarquable dans les domaines qui nécessitent l’analyse statistique de grands volumes de données. Il peut le faire sans traitement humain. Nous sommes en mesure de garder une machine IA sous le contrôle quotidien de ce type de système, de s’autocorriger immédiatement et d’apprendre des erreurs et de définir les objectifs de ses maîtres de l’être humain. En raison de ce contrôle des dangers et des conseils mini-prudentiels sont très bien adaptés à l’IA. Les problèmes technologiques sous-jacents sont clairement identifiés, de même que les objectifs de niveau supérieur et inférieur. Cependant, les mêmes caractéristiques qui rendront l’IA si idéale pour les autorités mini-prudentielles peuvent également expliquer pourquoi elle pourrait déstabiliser le système économique et améliorer le risque systémique, comme mentionné dans Danielsson et al. (2017). Dans les applications efficaces de haut niveau, un générateur d’IA exerce un pouvoir sur de petites parties d’une difficulté générale, où la solution globale n’est que des sous-alternatives agrégées. Contrôler toutes les petites zones d’une méthode indépendamment revient à manipuler la méthode dans son intégralité. La gestion des dangers et les restrictions microprudentielles sont des exemples de ce type de problème. La première étape du contrôle aléatoire est la modélisation du danger et c’est simple pour l’IA. Cela implique la gestion des coûts du marché avec des techniques statistiques relativement faciles, fonction qui était auparavant bien en cours. La tâche suivante consiste à combiner des informations détaillées sur tous les postes occupés par le biais d’une institution bancaire avec des informations sur les personnes qui choisissent ces placements, en créant un générateur d’IA de contrôle des risques avec une compréhension des risques, des rôles et des fonds humains. Fondamentalement, nous avons du chemin à faire pour arriver à cette conclusion, la majorité des informations nécessaires se trouvent déjà dans la structure informatique des banques et il n’y a pas d’obstacles technologiques insurmontables en cours de route. Il ne reste plus qu’à informer le générateur des objectifs de haut niveau de la banque. L’équipement est capable d’opérer immédiatement des fonctions régulières de gestion des risques et de répartition des avantages, d’établir des limites de lieu, de suggérer qui est licencié et qui recevra des bonus, et de recommander les leçons à acheter. Il en va de même pour la plupart des petites orientations prudentielles. En effet, l’IA a créé un tout nouveau domaine appelé technologies de la législation, ou «regtech». Il n’est vraiment pas si difficile de convertir le livre de règles d’une société de supervision, maintenant pour de nombreux composants en anglais de base, en un moteur de raisonnement informatisé officiel. Cela permet à l’influence de valider la cohérence de ses réglementations et offre aux banques une interface utilisateur de codage logiciel pour valider les méthodes par rapport aux règles. D’un autre côté, l’IA de supervision et également l’IA d’administration des chances des banques peuvent s’interroger instantanément pour s’assurer de leur conformité. Cela signifie également que toutes les informations générées par les institutions bancaires sont correctement structurées et étiquetées et peuvent être traitées instantanément grâce au pouvoir de conformité et de hasard. Il existe néanmoins une meilleure option avant que l’IA de supervision / administration des risques ne devienne une vérité utile, mais ce qui est exactement défini est éminemment concevable en raison de la trajectoire du progrès technique. Le problème clé peut très bien être légitime, gouvernemental et interpersonnel plutôt que technique.

Google lance incognito un challenger à Pinterest alimenté par l’IA dénommé Keen

Le personnel de la région 120 de Google, un incubateur interne qui produit des programmes expérimentaux et des services professionnels, a présenté Eager: un concurrent potentiel de Pinterest qui s’appuie sur l’unité du géant de la recherche qui étudie les connaissances pour organiser les sujets. Désormais disponible sur le Web et sur les systèmes d’exploitation Android, le co-créateur CJ Adams affirme qu’Enthusiastic vise à obtenir un choix alternatif à la recherche «inconsidérée» de flux en ligne. « Sur Keen […] vous dites ce que vous souhaitez consacrer plus de temps, puis vous organisez du contenu en ligne et des gens en qui vous avez confiance pour vous aider à y arriver », écrit Adams dans un article. « Vous venez avec un » vif « , qui peut concerner n’importe quel sujet, qu’il s’agisse de cuisiner du pain savoureux dans votre propre maison, d’entrer dans l’observation des oiseaux ou d’explorer la typographie. Keen vous permet de gérer ce contenu que vous adorez, de parler de votre série avec d’autres et de trouver de nouveaux articles en fonction des choses que vous avez protégées. » Ce n’est naturellement pas seulement un discours particulièrement révélateur. Presque chaque offre de réseau social que vous recherchez souhaite modifier son contenu en fonction des goûts et des aversions d’une manière ou d’une autre. Et Pinterest a déjà saisi la partie axée sur les passe-temps sur ce marché en utilisant sa disposition graphique de conception de pinboard – deux caractéristiques que Keen a l’intention d’imiter. Qu’est-ce que Eager a exactement que Pinterest n’a pas? Eh bien, pour un seul, il fournit à Google la connaissance de la compréhension de la machine, qui, selon Adams, couvrira des «articles utiles concernant vos goûts et vos aversions». «Même si vous n’êtes pas un professionnel sur un sujet, commencez à organiser un enthousiaste et conservez quelques« joyaux »ou liens intrigants que vous trouvez bénéfiques», explique Adams. « Ces informations agissent comme des graines de plantes et aident à découvrir un nombre croissant de contenus pertinents au fil du temps. » Mais contrairement à Pinterest, il n’investit pas non plus massivement dans l’IA. Et bien que le pouvoir du machine learning de découvrir des habitudes dans les détails dépasse celui des êtres humains dans de nombreux endroits, en termes de passe-temps de marché de niche et de goûts et d’aversions, je parierais que les intuitions de groupe d’un grand et actif (oserais-je seulement dire, enthousiaste ?) la base d’utilisateurs dépassera entre-temps celles des appareils. Mais il y a aussi la question de savoir quels moteurs de recherche eux-mêmes s’éloignent de cette entreprise en ce qui concerne les données. La société n’a jamais réussi à détruire dans l’espace interpersonnel, un emplacement d’action sur le Web qui fournit des tas de données lucratives pour se concentrer sur les publicités. Un média social à la mode Pinterest lui donnerait vraiment le temps de se concentrer sur les intérêts des utilisateurs et de collecter ces détails. Et il semble que les informations accumulées par Excited seront rassemblées avec tout ce que Google sait sur les clients. Vous vous connectez à Enthusiastic à l’aide de votre compte bancaire sur les moteurs de recherche, et en cliquant sur le lien « confidentialité » du site, vous vous retrouvez sans aucun doute dans la politique de confidentialité en ligne de Yahoo. À tout prix, il est intéressant de découvrir Yahoo et google forcent son unité à étudier des techniques dans des applications beaucoup plus diverses. Surtout ceux qui semblent vouloir favoriser les goûts et les aversions des utilisateurs dans des intérêts satisfaisants, plutôt que des techniques qui poussent les individus à un plus grand engagement sans avoir à réfléchir à ce que c’est réellement fascinant.

L’intégration du machine learning se répand

L’émission du CES qui se déroule à Vegas chaque mois de janvier contribue toujours à faire la une des journaux, même si elle est parfois considérée comme de simples «jouets pour les gars». Mais il y a une autre émission qui arrive à chaque janvier et qui est censée être consacrée aux jouets. En effet, le centre de réunion Olympia de Londres n’est pas aussi attrayant ou fastueux que Vegas, mais le Plaything Fair de cette année a connu plus que sa juste part de faits saillants de haute technicité. Entre tous les jeux de table vintage qui créent le plus souvent une reprise, ainsi que le dernier barrage de jouets «merde» (apparemment inspirés par la plus récente variété d’émojis d’Apple), il semblait y avoir une démonstration très puissante des jouets et jeux Originate – «science, technologie moderne, architecture et mathématiques» – qui permettent aux jeunes enfants de s’amuser tout en étudiant des capacités qui seront vitales pour leur éducation potentielle et leurs perspectives d’emploi. Il y a toujours eu des jouets conçus pour utiliser la technologie moderne pour former les enfants à des compétences innovantes, avec de nombreuses générations de jeunes qui causent le chaos à la maison avec des ensembles de chimie et des produits architecturaux, ou simplement se penchant vers beaucoup plus d’équipements artistiques comme Etch A Sketch et Spirograph. Mais les jouets et les jeux technologiques actuels ont peut-être commencé avec LEGO en 1986, quand il a sorti pour la première fois des produits LEGO qui intégraient un moteur qui pourrait être géré au moyen d’un ordinateur personnel. Puis, en 1998, LEGO a dévoilé les produits Mindstorms massivement préférés, qui incorporaient une «brique intelligente» automatisée qui permettait aux jeunes de créer de très petits robots capables d’effectuer une variété de tâches tout seuls. Vingt ans plus tard, le développement et le codage sont considérés comme des compétences vitales, en particulier pour l’avenir, et une nouvelle technologie de jouets pour robots est désormais disponible pour les petits de tous les âges. L’un des nombreux honneurs «Hero» au Toy Honest de cette année a rendu visite à Botley, le robot de codage Html (79,99 $), un adorable petit robot à deux roues créé pour de jeunes enfants aussi frais que cinq ans. Botley gardera les points de base pour les jeunes enfants, en utilisant des «cartes de codage» introduisant des méthodes de programmation simples, sans avoir besoin d’un téléphone mobile ou d’une tablette. Au cas où vos adolescents seraient en mesure de gérer un iPhone ou un iPad, ils pourraient essayer le système Osmo Explorer (197 $, pour les 6 ans). Le paquet Osmo contient plusieurs blocs de type LEGO qui représentent des instructions de programmation simples, ainsi qu’un support d’accueil particulier qui déplace ces commandes sur votre iPad, ce qui signifie que votre tout-petit peut animer et gérer juste un petit animal d’infographie sur l’écran . Il existe de nombreux jeux vidéo Osmo qui peuvent également aider avec diverses compétences, comme le jeu en ligne Pizzas Co. (39 $, pour les 5 ans) qui cible l’exploitation d’une petite entreprise et la gestion de l’argent. En tant que fans de Enjoy-Doh chez vos enfants, nous sommes ravis de voir le nouveau Play-Doh Feel (24,99 $, pour les 4 ans), qui vous permet de modeler des styles d’animaux et de les parcourir dans une tablette iPad pour créer votre propre écran personnel. jeux et escapades. Montez de quelques niveaux et il y a une action de robot sévère en cours. LEGO progresse toujours fort, évidemment, et le dernier Mindstorms EV3 vous permet de créer divers robots divers à partir d’un seul paquet. L’EV3 est un peu coûteux – à 349,99 $, pendant longtemps 10 – mais il est assez élégant et implique des composants tels que des effets et des dispositifs d’éclairage qui permettent à vos robots de se déplacer près d’obstacles de manière indépendante. Et, en plus de fournir des applications iOS et Android pour coder vos robots, LEGO est probablement le couple d’entreprises qui propose également une variante Macintosh de son application iPhone, ainsi qu’une excellente collection de didacticiels vidéo de formation sur son site à acquérir. Le rival de LEGO, le Meccano basé au Royaume-Uni, propose sa propre gamme de jouets pour robots, qui sont moins chers – généralement autour de 100 $ à 200 $ pour chaque ensemble – alors qu’ils ne sont pas aussi flexibles et ont tendance à se concentrer sur la fabrication d’un robot distinct. , comme l’effrayant MeccaSpider à plusieurs pattes.

Google et l’importance des des classements de recherche

Les moteurs de recherche comme Google sont en train de façonner une toute nouvelle planète, la principale dont nous espérons avoir les résultats finaux. Et qu’il faut découvrir ces nouvelles méthodes de recherche puisque nous ne serons pas entièrement satisfaits des résultats proposés. Robert Epstein a tenté une expérience facile de la gestion – approximativement de l’élection présidentielle: effectuer des recherches sur Bing et Yahoo pour des questions politiques. Les résultats étaient magnifiques. Les recherches Google ont généré deux fois plus de publications de nouvelles d’experts-Hillary Clinton que de requêtes de recherche Google. Peut-être encore plus spectaculaire a-t-il été que les hommes et les citoyens blue-express ont trouvé plus du double du nombre de postes professionnels-Clinton que les femmes et les personnes survivant dans des revendications rougeâtres, M. Epstein, dans l’institution citoyenne américaine pour la recherche sur la personnalité et l’innovation technologique, et Robert E Robertson, professeur au Northeastern College, a fait valoir dans la déclaration cette année. M. Epstein a déclaré qu’il étudie toujours ce qui a induit les préjugés, mais craint que l’algorithme de recherche de Google – une sorte d’intellect artificiel qui choisit les résultats souhaités par un chercheur – ait évalué le contenu pro-Clinton avant le contenu positif sur son rival, Donald Trump. Tous ces algorithmes sont en passe de devenir Walter Cronkite ou Edward R. Murrow des temps modernes, qui choisissent les médias qui vous parviennent aux yeux et aux oreilles des Américains dans un cadre multimédia progressivement Google-Facebook ou myspace-Twitter. Récemment, l’accent a toujours été mis sur la question de savoir si les entreprises pouvaient être manipulées par des agents russes qui tentaient de semer le «chaos» dans le You.S. autour des élections de l’année dernière. Mais la force des entreprises à conditionner la politique des États-Unis devrait effectivement dépasser cela. «Les organisations de réseautage social sont définitivement les gardiens», a déclaré Frank Foer, un blogueur de l’Atlantique et ancien rédacteur en chef de la Nouvelle République qui a peut-être écrit un livre sur la force des médias sociaux. «Quels que soient les choix que font ces entreprises pour soulever ou enterrer des détails, ils sont puissants et auront un impact important sur ce que les gens étudient.» Les conservateurs disent qu’ils soupçonnent depuis longtemps que plusieurs des leaders du World Wide Web les discriminent en plus de leur contenu. Ils soulignent que les dénonciateurs qui ont identifié ces personnes ont été poussés à s’occuper des conservateurs d’une manière différente. Les entreprises ont décliné les demandes. Ils exigent que les techniques soient créées pour enregistrer de loin les reportages les plus lus sur la scène politique. Votre système informatique personnel ne pouvait pas faire la distinction entre libéral et conservateur, affirment-ils. M. Foer, qui prétend s’inquiéter du degré de force exercé par les algorithmes utilisés par les entreprises de technologie, rejette les accusations de préjugé libéral de «paranoïa conservatrice». Mais un ensemble d’études prometteuses suggère qu’il y a certainement quelque chose pour les problèmes. M. Epstein et M. Robertson, dans le cadre de leur enquête, ont enquêté sur 4 045 requêtes politiques liées aux élections sur Bing et Yahoo pendant une période de 25 heures à partir de la mi-octobre jusqu’au jour du scrutin. Ils ont découvert que le contenu de Master Clinton submergeait les informations pro-Trump. « Les algorithmes ne sont généralement pas programmés avec une ligne directrice équivalente », a déclaré M. Epstein, un partisan de Clinton. «Ils sont programmés pour placer quelque chose avant encore un autre d’une manière qui est une formule hautement magique et en constante évolution.» Il a déclaré que ses expériences présentaient la force des requêtes de recherche de rapports pour avoir un impact sur la politique nationale et avait découvert qu’il pouvait améliorer l’assistance d’un candidat jusqu’à 63% en suivant un seul programme de recherche Google. Cela est basé sur 5 expériences que M. Epstein a fait du jogging dans deux pays à travers le monde dans lesquelles les membres de la recherche ont modifié leurs pensées sur le candidat en fonction d’une recherche google manipulée. Ils l’ont surnommé «l’effet de manipulation du moteur de recherche». Un examen séparé par Nicholas Diakopoulos, maintenant à l’Université Northwestern, a analysé les résultats de la recherche sur Internet le 1er décembre 2015. Il a recherché les marques de 16 présidentielles et a trouvé que les démocrates, en moyenne, possédaient six résultats positifs dans les moteurs de recherche dans le top 10 de Google. Les candidats républicains, quant à eux, ne possédaient que 5,9 postes bénéfiques dans les 10 premiers. Mme Clinton a connu 5 différents classements positifs dans les moteurs de recherche, mais seulement 1 mauvais sur la page 1, conformément à l’examen. M. Trump possédait plusieurs résultats de recherche optimistes et 3 défavorables à la page 1. Le sénateur Bernard Sanders, un autre candidat démocrate, a obtenu neuf bons succès sans aucun négatif, et le candidat républicain, le sénateur Ted Cruz, n’a eu aucun succès.