Reliés à Internet par une station de base terrestre, les ailes communiqueront entre elles par laser. Normalement, le laser fonctionne bien entre des points stables, et c'est comme viser 10 cents d'euro à 17 km de distance, précise le CTO. Nos appareils ne le sont pas. C'est un vrai défi technique. Et nous nous inspirons par exemple de ce que nous avons appris avec les équipement de télécommunication optiques dans nos datacenters. Autre défi, faire en sorte que la communication ne soit pas interrompue par de la poussière, de la vapeur d'eau ou des oiseaux, par exemple. Des enjeux nouveaux pour le géant californien.
LA TÉLÉPORTATION PAR LA RÉALITÉ VIRTUELLE
Quid de l'Oculus Rift et de la réalité virtuelle dans cette stratégie de communication ? Pour Facebook, la réponse est simple. Il s'agit d'une forme de téléportation. Et du futur du réseau social. Pour comprendre, rien ne vaut une démonstration. Les équipes de Facebook ont développé une sorte de jeu pour apprendre à utiliser le casque Oculus Rift et ses deux manettes. Même la plus inadaptée des journalistes pour ce type d'environnement a réussi à s'en servir avec une certaine dextérité... Mais surtout, la démonstration sert à prouver que deux personnes - casquées d'un Oculus et munies d'une manette dans chaque main - qui communiquent, se lancent des objets, jouent au ping-pong, alors qu'elles ne se voient que sous la forme d'une tête et de deux mains bleues qui flottent dans les airs...
Aussi improbable soit la situation, quelques secondes suffisent au cerveau pour trouver cela tout à fait normal. Et en faire un nouveau mode de communication. Et si l'expérience s'est déroulée dans une même pièce avec une simple paroi de séparation, elle aurait pu être reproduite à des dizaines de milliers de kilomètres de distance. Pour participer virtuellement à une cérémonie ou à une conférence, par exemple. Autrement dit, pour se téléporter.
Reste enfin l'intelligence artificielle. Un must de cette édition 2015 du Web Summit. Une petite caméra et quelques peluches suffisent à convaincre de l'état de la recherche Facebook en la matière. Le logiciel de reconnaissance d'images montré par le californien confond d'abord un zèbre en peluche avec un clavier. Mais il ne lui faut pas plus de 3 essais pour trouver la solution. Nous comprenons tant de choses avec nos yeux, explique Mike Schroepfer. Mais ça, un ordinateur ne sait pas le faire.
La compréhension, la recherche, l'analyse des images et même des vidéos sera un outil d'amélioration de la communication entre individus, pour Facebook. Une forme de super pouvoir pour tous, s'enthousiasme le CTO. Jusqu'à décrire automatiquement certaines photos pour des internautes aveugles.
VIDÉO Google passe son nouvel outil de machine learning, TensorFlow, en open source. La firme de Mountain View entend démocratiser cette technologie et la faire progresser en l'offrant au plus grand nombre. A la clé, un avantage décisif dans la bataille qui l'oppose à Microsoft, IBM et Amazon pour contrôler ce marché en plein essor.
Le CEO de Google, Sundar Pichai, a annoncé dans un message le 9 novembre que le géant de la recherche va passer son nouvel outil de machine learning, baptisé TensorFlow, en open source.
Le machine learning est un champ d'étude de l'intelligence artificielle. Il a connu de grands progrès ces dernières années et on le trouve aujourd'hui dans de nombreux produits de Google : la recherche, la reconnaissance vocale, la traduction automatique, le triage des emails, les recommandations, la gestion des photos...
TensorFlow a été conçu comme un système adapté à la fois à la recherche et à la création de vrais produits commerciaux. Il apprend cinq fois plus vite que l'ancien système d'IA de Google (DistBelief, créé en 2011), et est suffisamment flexible pour tourner sur un simple smartphone ou sur des milliers d'ordinateurs dans un datacenter.
Google ne restreint donc pas le public auquel s'adresse son offre : chercheurs, ingénieurs, ou simples amateurs enthousiastes sont tous les bienvenus. Et il invite expressément tout détenteur de jeux complexes de données (ex: modélisation de molécules, astronomie) à s'y essayer.
S'IMPOSER SUR LE MARCHÉ, COMME AVEC ANDROID
Le but avoué de cette manœuvre : aider le machine learning, qui n'en est qu'à ses débuts, à progresser plus rapidement. L'objectif sous-jacent : s'assurer que les solutions d'intelligence artificielle au coeur des révolutions technologiques à venir soient celles de Google. Comme avec son système d'exploitation mobile Android, les profits viendront par la suite.
S'il existe déjà des frameworks de machine learning open source comme Theano, Torch ou Caffe, ils ne bénéficient pas de la puissance de Google, que ce soit en matière d'ingénierie ou de marketing. Ce positionnement open source se fait plutôt en opposition à l'approche (moins ouverte) de ses principaux concurrents dans le domaine : Microsoft avec sa suite Cortana Analytics ou son Projet Oxford (API gratuites), IBM avec Watson et Amazon avec Amazon Machine Learning. L'entreprise qui saura s'imposer sur ce marché remportera la prochaine grande bataille technologique.
La fin du support de Windows XP par Microsoft n’est pas qu’une simple question de migration vers un nouveau système d’exploitation. D’autres contraintes comme le coût ou bien l’interruption de services liés à cette migration peuvent être des éléments critiques à prendre en compte pour certaines entreprises.
Prenons l’exemple du secteur bancaire. 95 % des distributeurs automatiques de billets (DAB) dans le monde reposent actuellement sur des ordinateurs fonctionnant sous Windows XP. Outre la nécessité d’une interruption de services pour réaliser cette migration, ces ordinateurs ne tolèrent en général pas une version plus récente de Windows. Dans ce cas de figure, impossible de migrer sans changer l’ensemble du matériel informatique et engendrer un coût non négligeable pour les entreprises.
Idem pour les environnements industriels dits Scada comportant des applications métiers spécifiques créées depuis des dizaines d’années et difficiles à migrer.
LA CLÉ POUR RESTER SOUS WINDOWS XP EST DE NE PAS ÊTRE CONNECTÉ À INTERNET
Une des alternatives envisagées par ces entreprises est de ne rien faire. Seront-elles donc plus vulnérables ? N’en soyez pas si certain ! Il est fréquent qu’une organisation n’effectue pas les correctifs disponibles de l’OS pour éviter toute interruption de leurs services. En effet, pour ces organisations, l’interruption de services n’est pas uniquement liée à la migration vers un nouvel OS mais est également nécessaire pour toute mise à jour de n’importe quel système d’exploitation.
Ces entreprises seront donc autant vulnérables qu’aujourd’hui puisque sans ces correctifs, elles ne sont pas protégées des vulnérabilités actuelles. A l’inverse, d’autres entreprises ont l’habitude de mettre à jour automatiquement leur système d’exploitation, dans ce cas, elles deviendront plus vulnérables qu’aujourd’hui puisqu’elles ne bénéficieront plus de protection actualisées.Achat Dell batterie ordinateur portable - fr-batterie-portable.com
Pour ce qui est des DAB, rassurez-vous, ces distributeurs ne sont pas directement connectés à Internet. Donc le seul moyen pour un cybercriminel de les cibler est d’intervenir sur la machine elle-même (comme par exemple : y introduire un cheval de Troie par le biais d’une clé USB qu’il connecterait au distributeur). Une opération très peu probable car risquée pour les cybercriminels.
Vous l’aurez donc compris, la clé pour rester sous Windows XP est de ne pas être connecté à Internet. Sans quoi, il est recommandé de migrer vers un autre système d’exploitation car on peut s’attendre à une recrudescence d’attaques ciblant les prochaines vulnérabilités XP visant à extraire des informations sensibles (informations concurrentielles, numéros de cartes de crédit …).
Comment le big data va-t-il transformer le monde ? La réponse, le cinéma la donne depuis des années. Alors que la révolution des données ne fait que commencer dans les entreprises, elle est une réalité dans le septième art et ce depuis bien longtemps. Le cinéma avait déjà tout prévu, affirme Xavier Perret, directeur du Digital B2B chez Orange, lors de la journée organisée par Bpifrance sur le big data et les PME, le 4 novembre 2015.
1944 : ORIGINE DU BIG DATA
Le big data apparaît aujourd’hui comme un concept un peu galvaudé. Le terme est récent. Il est présenté pour la première fois en 1998 par un scientifique de Silicon Graphics Inc. Mais le principe d’utilisation des données pour la prise de décision est très ancien, tempère Xavier Perret. Il remonte à 1944 quand le bibliothécaire américain Fremont Rider prédit l’explosion des volumes stockés dans les librairies des universités. Ce phénomène est jalonné de prédictions intuitives, observations empiriques et modélisations théoriques déterministes, basées sur les statistiques, les probabilités et les mathématiques. Son histoire se retrouve dans le cinéma.