« AMD livrera aussi des puces serveur Zen avec moins de cœurs », a déclaré Jim McGregor, analyste principal chez Tirias Research. Aujourd’hui en effet, la majorité des serveurs tournent avec des puces quadricœurs, et le vrai marché pour les puces Naples 32 cœurs est limité, mais il suffit de désactiver des coeurs pour proposer une gamme de processeurs. Le marché des serveurs est dominé par des serveurs à deux sockets. Les puces 24 cœurs d'Intel sont compatibles avec les serveurs quatre et huit sockets, très courants dans les institutions financières et d’autres entreprises qui ont besoin de beaucoup de puissance. « Intel a utilisé la puce Xeon pour épuiser le marché, en forçant les gens à acheter des serveurs à deux sockets, mais AMD pourrait infléchir cette tendance », a encore déclaré Jim McGregor. « AMD prévoit également d’intégrer une nouvelle technologie de bande passante mémoire qui stimulera la performance du serveur et lui donnera peut-être un avantage sur la puce Xeon », a ajouté l’analyste. On ne sait pas exactement en quoi consiste cette technologie, mais elle pourrait être basée sur la technologie mise au point par le consortium Gen-Z qui permet de délivrer un débit à grande vitesse à l'intérieur et à l'extérieur des serveurs.
Par le passé, AMD a déjà essayé de surprendre Intel sur le marché des serveurs, mais ses initiatives ont été très contre-productives. En 2003, le fabricant de puces a livré la première puce serveur 64 bits x86 appelée Opteron, poussant Intel à batailler dur pour rattraper son retard. Mais AMD a perdu son avance en livrant des puces Opteron basées sur l'architecture Bulldozer, moins performantes et disqualifiées par les fabricants de serveurs. En 2013, AMD a, à nouveau, perdu sa chance d’entrer durablement sur le marché des serveurs en décidant de changer d'architecture. Cette année-là, le fabricant a pris la décision fatale de mettre de côté l’architecture x86 et de recentrer sa stratégie serveur autour de l'architecture ARM. AMD pensait que les puces ARM basse consommation finiraient par remplacer les puces x86 dans les serveurs et qu’elle pourrait gagner jusqu’à 20 % de parts sur ce marché d'ici 2017. Mais, ce n’est pas ce qui s’est passé. AMD a livré ses premières puces serveur ARM au début de l’an dernier, mais aujourd’hui, très peu de serveurs tournent avec ces puces, même si la promesse demeure. Réalisant son erreur, AMD a renoncé pour ses puces serveur à l’architecture ARM pour revenir au x86 avec les puces Zen. Dans l'intervalle, Intel a profité des maladresses d'AMD, livrant régulièrement de puces Xeon capables, chaque fois, de prendre en charge les dernières technologies. Si bien que désormais, Intel détient plus de 90 % du marché des processeurs serveur.
La méthodologie concoctée par IBM prévoit quatre axes : la valeur (en veillant au bon ROI tout au long du cycle de vie du produit ou du service), la scalabilité proprement dite (s'assurant de la capacité à monter en puissance sur un périmètre à forte volumétrie d'utilisateurs), la sécurité (mise en place de règles souvent complexes, certifications, qualifications) et, enfin, l'accompagnement du changement. IBM rappelle en effet que la mise en production d’une solution innovante entraîne souvent des besoins en compétences nouvelles et des modifications dans l’organisation des entreprises.Après Capgemini Consulting, c'est IBM qui s'intéresse aux attentes des consommateurs envers des boutiques plus tournées vers le numérique. Plus spécifiquement, la génération Z attend une relation ausi personnalisée dans les magasins physiques que sur Internet.
Une récente étude réalisée par Capgemini Consulting montrait les manques des boutiques physiques par rapport au e-commerce. Une étude différente menée par IBM et qui se concentre sur le créneau de la Génération Z a des conclusions partiellement différentes. En effet, 98% des consommateurs issus de la Génération Z, à qui IBM prête un pouvoir d'achat de 44 milliards de dollars, préfèrent faire leurs courses dans un magasin physique.
Mais, cependant, les deux études se rejoignent sur la nécessité pour les magasins physiques d'adopter une véritable révolution numérique. Les consommateurs de la génération Z attendent en effet une relation très personnalisée, autant dans les boutiques physiques que sur les sites e-commerce. De plus, ces consommateurs privilégient la qualité au prix et attendent une approche omnicanale des marques dont ils sont clients. Les enseignes ont donc besoin d'une analyse permanente temps réel de toutes les interactions sur tous les canaux. Or 19% seulement des commerçants sont capables de fournir une expérience client numérique personnalisée, 17% un état des stock en magasins en temps réel.Enfin, 66 % des consommateurs de la génération Z utilisent plus d'un appareil mobile, 60% abandonnant un site ou une application trop lente. Or 84% des enseignes n'offrent pas de services mobiles en magasin.
Sur le Forum économique mondial de Davos, en Suisse, Virginia Rometty, CEO d'IBM, et Satya Nadella, CEO de Microsoft, ont reconnu la responsabilité des grands fournisseurs d'informatique et la nécessité d'établir des principes dans la mise en place de l'intelligence artificielle.
L’intelligence artificielle devrait améliorer les capacités des travailleurs humains et non les remplacer, estiment respectivement Virginia Rometty, CEO d’IBM, et Satya Nadella, CEO de Microsoft. Lors d’un panel de discussion sur le Forum économique mondial (WEF 2017), qui se tient en ce moment à Davos, en Suisse (du 17 au 20 janvier), les dirigeants des deux entreprises ont exprimé clairement leur point de vue sur le rôle de ces technologies faisant notamment appel à l'apprentissage machine. Quelques heures plus tôt, Virginia Rometty avait présenté trois principes éthiques pour un développement responsable de l’IA, un peu à la manière des trois lois de la robotique de l’auteur de science fiction Isaac Asimov. Exposées de façon plus vague et avec moins d’emphase que ces dernières, les principes d’IBM visent néanmoins à limiter les dégâts que pourrait causer la mise en oeuvre des technologies d’intelligence artificielle.
Le premier principe exposé est le but visé. « Ce ne sera pas l’homme ou la machine : notre but est d’augmenter [NDLR, les capacités de l'utilisateur] et d’être au service de ce que font les humains », a d’abord indiqué Virginia Rometty. Deuxième principe, la transparence : « Si quelqu’un utilise un système, il faut lui dire qu’il s’agit d’intelligence artificielle et lui indiquer comment l'outil a été entraîné », a-t-elle poursuivi. « A-t-il été entraîné par des experts ? Quelles sont les données qui ont été utilisées pour le faire ? L’humain doit garder le contrôle de ces systèmes ». Le troisième principe est d’assurer que les humains ont les compétences pour travailler avec les nouvelles technologies cognitives. « Il est probable que certaines tâches seront remplacées, mais la plupart d’entre nous travaillerons avec ces systèmes », a ajouté la CEO.
Des entreprises telles qu’IBM doivent s’assurer que les systèmes d’IA ne sont pas les seuls à être formés, mais que les utilisateurs le sont aussi. « Les compétences dont on a besoin dans ce monde ne sont pas toutes des compétences de haut niveau », a expliqué Virginia Rometty en encourageant les entreprises à travailler avec les écoles. « Fournissez-leur un programme pertinent, un mentorat et assurez-vous qu’elles enseignent ce sur quoi vous recrutez », a-t-elle insisté.
Le CEO de Microsoft est sur la même ligne. « C’est notre responsabilité de faire que l’intelligence artificielle augmente l’ingéniosité et les possibilités humaines », a-t-il indiqué à son tour. Toutefois, savoir jusqu’où s’étend la responsabilité humaine dans cette industrie reste une question ouverte. « C’est l’un des défis les plus difficiles », a reconnu Satya Nadella. « Comment prendre en compte la responsabilité sur des décisions que prennent des algorithmes dans un monde où les algorithmes ne sont pas écrits par vous, mais qu'ils fonctionnent par apprentissage ».Le CEO de Microsoft est d’accord sur la nécessité d'être transparent sur la façon dont le système a été entraîné et sur les données qui ont servi à le faire. Dans le cas contraire, « à quelle boîte noire allez-vous vous fier ? Quel est le cadre juridique et éthique capable de gouverner la boîte noire ? Qui en est responsable ? ». C’est un terrain sur lequel l’industrie informatique doit travailler, a ajouté Virginia Rometty. « C’est notre responsabilité, en tant que leaders produisant ces technologies, de guider leur entrée dans le monde d’une manière sûre », a-t-elle souligné à Davos. Elle présente le consortium « Partnership on AI », créé en septembre par IBM et Microsoft avec Amazon, Google et Facebook, comme un exemple de la façon dont l’industrie IT prend les devants dans ce domaine.
Plusieurs secteurs d'activité ont commencé à se préoccuper des bouleversements que l'IA va entraîner dans leurs rangs. En France, par exemple, dans le secteur de la banque de détail, la mise en place par certains établissements d'applications faisant appel à des technologies d'apprentissage machine (notamment Watson d'IBM) a récemment conduit le syndicat national bancaire à s'exprimer sur le sujet. Le SNB estime qu'il faut lancer d'importants plans de formation pour pouvoir à terme transformer les conseillers clientèle en experts. Par ailleurs, sur le terrain de la robotique, les juristes de l'Union européenne planchent en ce moment sur l'intérêt de conférer aux robots un statut de « personne électronique » pour mieux établir les responsabilités et régler les différends.Dans le cadre d'une collaboration de 10 ans, IBM développe pour la Sacem, société qui protège les intérêts des auteurs, compositeurs et éditeurs de musique, une plateforme de collecte et de répartition des droits d'auteurs baptisée URights. Hébergée dans le cloud d'IBM, celle-ci s'appuie sur les technologies analytiques et de gestion des big data du fournisseur, en particulier BigInsights et Watson Explorer.
IBM a conclu un partenariat de 10 ans avec la Sacem - l’une des principales sociétés répartissant les droits d’auteur sur les œuvres musicales au niveau mondial - pour concevoir une plateforme gérant la protection des créateurs et éditeurs de musique en ligne. Développée sous le nom d’URights, la solution sera hébergée dans le cloud d’IBM. En 2016, la consommation d’œuvres en ligne comptabilisée par la Sacem a presque doublé par rapport à 2015, atteignant près de 982,5 milliards d’actes de téléchargement et de streaming.URights exploitera en particulier les solutions analytiques d’IBM pour optimiser l’identification des créations et établir la rémunération au plus juste. La plateforme doit également proposer de nouveaux services aux compositeurs et éditeurs pour les aider à mieux comprendre les modes de consommation des œuvres diffusées. Sur le marché, un site de streaming musical comme Spotify propose déjà une fonctionnalité de ce type avec son service FanInsights qui fournit aux artistes des analyses de données sur leurs fans en ligne.