Sites Grátis no Comunidades.net


Total de visitas: 10810
Batterie Dell 312-0966

Les PME choisies pour réaliser les PoC – avec des solutions de rupture précisent les organisateurs de ces défis – pourront disposer d’un soutien financier de l’Etat. Pour en savoir plus, les entreprises intéressées peuvent consulter le règlement des Challenges numériques sur le site Datapoc.fr. Les défis seront lancés le 2 mars prochain dans les locaux de Bpifrance (9ème).Le groupe mutualiste de protection sociale Humanis met en place un programme big data sur 5 ans dont le budget est de 20 millions d'euros. Les technologies Microsoft incluant SQL Server 2016 et Power BI vont être utilisées.
Groupe mutualiste paritaire de protection sociale créé en 2012, Humanis a 700 000 entreprises comme clientes et protège ainsi dix millions de personnes en France. Exploiter le potentiel du Big Data ne peut évidemment pas s'envisager dans un contexte de données personnelles très sensibles sans un maximum de sécurité. Pour relever ce défi, Humanis a lancé un vaste projet sur cinq ans baptisé Atlas. Il est doté d'un budget de 20 millions d'euros. Atlas sera bâti à partir de la plateforme de gestion existante Pléi@de.

Pour créer Atlas, saisir les opportunités en respectant les contraintes, Humanis a fait confiance à Microsoft et à ses solutions SQL Server 2016 incluant non seulement les solutions analytiques adaptées aux grands volumes mais aussi des fonctionnalités de Master Data Management et de gestion de la qualité de données. Le module Power BI va, lui, permettre la data discovery. L'objectif est notamment la création de tarifications collectives plus fines.
Un ouvrage publié aux Editions Eyrolles rédigé par Massih-Reza Amini et Eric Gaussier décortique la mécanique d'exploitation de l'information par le biais des algorithmes en environnement big data et datamining. Un livre qui a les mains dans la mécanique plus que dans la stratégie. Indexer et rechercher de l'information dans une base est probablement l'un des plus vieux problèmes de l'informatique. Mais les moteurs de recherche, l'émergence du Big Data et les nouvelles pratiques de datamining ont totalement renouvelé les méthodes et algorithmes. Après une première édition en 2013 de « Recherche d'information - Applications, modèles et algorithmes - Data mining, décisionnel et big data », Massih-Reza Amini et Eric Gaussier en publient une deuxième chez Eyrolles. Cet ouvrage de référence sur le sujet de l'algorithme de recherche tient désormais compte des dernières méthodes.

Nous sommes loin avec ce livre des considérations stratégiques. L'ouvrage parle réellement d'algorithmie, les mains dans la mécanique de l'exploitation de l'information. La traduction technique en logiciels n'est pas non plus le sujet. Il s'agit bien de comprendre comment réaliser l'exploitation de l'information et, accessoirement, comprendre comment elle est gérée par des outils tiers (Google typiquement). Une grosse part de l'ouvrage est assez logiquement remplie de schémas et de formules. Vu le sujet, la chose n'est pas si étonnante mais on notera une profusion d'index et de références bibliographiques.Dans le cadre d'une collaboration de 10 ans, IBM développe pour la Sacem, société qui protège les intérêts des auteurs, compositeurs et éditeurs de musique, une plateforme de collecte et de répartition des droits d'auteurs baptisée URights. Hébergée dans le cloud d'IBM, celle-ci s'appuie sur les technologies analytiques et de gestion des big data du fournisseur, en particulier BigInsights et Watson Explorer.

IBM a conclu un partenariat de 10 ans avec la Sacem - l’une des principales sociétés répartissant les droits d’auteur sur les œuvres musicales au niveau mondial - pour concevoir une plateforme gérant la protection des créateurs et éditeurs de musique en ligne. Développée sous le nom d’URights, la solution sera hébergée dans le cloud d’IBM. En 2016, la consommation d’œuvres en ligne comptabilisée par la Sacem a presque doublé par rapport à 2015, atteignant près de 982,5 milliards d’actes de téléchargement et de streaming.URights exploitera en particulier les solutions analytiques d’IBM pour optimiser l’identification des créations et établir la rémunération au plus juste. La plateforme doit également proposer de nouveaux services aux compositeurs et éditeurs pour les aider à mieux comprendre les modes de consommation des œuvres diffusées. Sur le marché, un site de streaming musical comme Spotify propose déjà une fonctionnalité de ce type avec son service FanInsights qui fournit aux artistes des analyses de données sur leurs fans en ligne.

Pour exploiter rapidement les milliards de lignes déclarées par les exploitants de services numériques, la plateforme développée par IBM et la Sacem s’appuiera sur BigInsights pour Apache Hadoop. La société des auteurs veut pouvoir traiter plus rapidement les données provenant des sites de streaming (YouTube, Spotify, Deezer, Groove, Dailymotion…). URights exploitera également la solution cloud Watson Explorer, basée sur les technologies d’apprentissage machine d’IBM. Cette application combine des fonctionnalités de recherche et d’analyse de contenus (structurés ou non) et des fonctions cognitives pour rapprocher et visualiser les données analysées en provenance de différentes sources. Sur ce projet, IBM France met également en avant l’expertise qu'il apporte sur le cloud hybride.Dans un communiqué, Jean-Noël Tronc, directeur général gérant de la Sacem, souligne la volonté de la société des auteurs d’optimiser la collecte et la répartition des droits dans un contexte global « de plus en plus fragmenté, en évolution constante ». Les services de sa plateforme pourraient également, à terme, être proposés à d’autres collecteurs de droits d’auteurs dans le monde. En 2015, la Sacem a réparti des droits auprès de 293 000 créateurs et éditeurs au titre de 2 millions d’œuvres, dans l’Hexagone et au niveau mondial. Elle défend les intérêts de plus de 157 000 membres. En Europe, elle compte parmi ses concurrents une société comme Kobalt.

Uber Technologies propose aux services municipaux, aux urbanistes et aux décideurs d’accéder aux données de trajets de sa plate-forme de transport. L’objectif est de leur permettre de mieux comprendre les tendances en matière de circulation urbaine et de les aider à investir dans des infrastructures adaptées afin d’améliorer le trafic dans leurs villes.Ces propositions devraient probablement permettre à Uber de s’attirer les bonnes grâces des responsables municipaux, même si l’entreprise a refusé les offres d’accès à ses données de certaines villes. New York voulait par exemple récupérer les temps de trajets effectués par ses véhicules afin de vérifier que les conducteurs respectaient la réglementation sur les temps de repos. Mais Uber n’a pas accepté, faisant valoir des clauses individuelles de confidentialité.

Dans le cadre de son nouveau programme dénommé Movement, Uber livrera certaines données recueillies sur plus de 2 milliards de voyages effectués dans 450 villes. L’entreprise affirme que toutes les données seront « anonymisées et regroupées par zones géographiques, les mêmes que celles utilisées par les urbanistes des transports pour identifier les secteurs urbains nécessitant de nouvelles infrastructures, comme les secteurs de recensement et les zones de trafic analysées », ainsi que l’ont écrit hier dans un blog Jordan Gilbertson, le directeur produit d’Uber et Andrew Salzberg, son directeur chargé de la politique des transports.D'autres entreprises de services de transport ont également proposé leurs données aux urbanistes des transports. Cette coopération pourrait ancrer plus fermement ces services dans la planification du trafic urbain. Depuis le mois de décembre, Easy Taxi, qui a démarré ses activités en Amérique latine, Grab qui opère en Asie du Sud-Est et Le.Taxi qui opère en France, ont signé un partenariat avec la Banque Mondiale et d'autres entreprises pour livrer les flux de trafic de leurs conducteurs sous licence libre. Uber a mis en place un site Web pour fournir l'information. Dans un premier temps, l'accès aux données du site ne sera possible que sur invitation, mais l'entreprise promet que par la suite elles seront accessibles gratuitement au public. Les informations du programme Movement sont disponibles sous licence Creative Commons sous réserve d’une utilisation non commerciale.

« Parce qu’Uber fonctionne 24 heures sur 24 et 7 jours sur 7, nous pouvons comparer les conditions de circulation à différents moments de la journée, différents jours de la semaine ou différents mois de l'année. Nous pouvons aussi voir l’impact que peuvent avoir sur les temps de trajet certains événements ou la fermeture de certains axes routiers ou d’autres situations urbaines », ont écrit Jordan Gilbertson et Andrew Salzberg.Le concept de partage de données agrégées avec les villes est déjà expérimenté par Uber en Australie, où le fournisseur de services de transports s’est associé avec Infrastructure Partnerships Australia pour mesurer l’efficacité des systèmes de transports. Les données d'Uber ont également été utilisées pour analyser l'impact de la panne du Metrorail à Washington DC, le 16 mars de l'année dernière. Cette panne, qui s’était produite en fin de journée à une heure de grande affluence, avait provoqué d’énormes embouteillages dans toute la ville. Enfin, les données d’Uber ont également servi en 2015 à Manille : la ville souhaitait analyser la circulation pendant la période des vacances.

Les groupes de consommateurs devraient suivre de près ce transfert de données d’Uber aux autorités municipales. Dans le passé, les utilisateurs avaient contesté la collecte de données par l'entreprise. En décembre de l'année dernière, Uber avait annoncé qu'elle recueillerait les données de localisation des personnes transportées « depuis la commande d’un trajet... jusqu'à cinq minutes après la dépose à destination, si l'application d'Uber tourne en arrière-plan ». Cependant, les utilisateurs ont la possibilité de désactiver ce suivi. En juillet 2015, l’entreprise a modifié sa politique de confidentialité : elle s’autorise à localiser les appareils de ses utilisateurs, même quand ils n'utilisent pas son service et que l'application fonctionne en arrière-plan.Grâce au logiciel open source Hadoop, mais aussi à des microservices et à des API, Experian peut traiter rapidement des quantités massives de données livrer plus rapidement les analyses financières à ses clients dans la banque et l'assurance.

Experian a mis en place un système d'analyse de données qui lui permet de réduire de plusieurs jours à quelques heures le temps qu'il faut pour traiter les Pétaoctets de données provenant de centaines de millions de clients à travers le monde. La société irlandaise de services d'information a déployé une couche data fabric basée sur le système de traitement de fichiers Hadoop, parallèlement à des microservices et une plate-forme API. Grâce à ces systèmes, les entreprises et les consommateurs peuvent accéder plus rapidement aux comptes rendus financiers et aux informations de crédits. « C'est un événement qui change véritablement la donne pour nos clients, car il leur permet d’avoir un accès en temps réel à des informations qui demandent généralement un certain temps d’analyse et ne sont habituellement pas accessibles immédiatement », explique ainsi le CEO d'Experian, Barry Libenson. Hadoop, un outil open source conçu pour piloter de gros projets big data, est devenu un élément incontournable de nombreuses stratégies d'analyse, les DSI souhaitant mettre à la disposition des clients des produits et des services d'information. La technologie utilise des techniques de traitement parallèle qui permettent, avec les logiciels adéquats, de traiter plus rapidement de plus grosses quantités de données que les outils de gestion de données basés sur SQL.