On parle depuis quelques années du phénomène de big data , que l'on traduit souvent par « données massives ». Avec le développement des nouvelles technologies, d'internet et des réseaux sociaux ces vingt dernières années, la production de données numériques a été de plus en plus nombreuse : textes, photos, vidéos, etc.
Par définition, le big data est un « domaine technologique dédié à l'analyse de très grands volumes de données informatiques ».
Les meilleurs logiciels Big Data gratuits et open source
 Hadoop. OpenRefine. MapReduce. Cassandra.
Volume, variété, vitesse, valeur – les « 4V »- sont les quatre critères définissant le phénomène Big data. Le Big data, c'est d'abord l'explosion du volume de données, qui met à l'épreuve les infrastructures de stockage classiques des entreprises.
Le big data se caractérise par 5 aspects : volume, vitesse, variété, variabilité et véracité.
L'un des avantages les plus importants du big data pour les entreprises est la réduction des coûts du stockage, du traitement et de l'analyse de données massives. Les outils de big data permettent aussi d'identifier des manières efficaces et plus économiques de faire des affaires.
Optimiser le traitement des données
 Pour de nombreux experts, le traitement des données est l'un des enjeux les plus importants du Big Data. En effet, les informations arrivent en masse et se présentent sous divers formats.
Le big data récupère automatiquement une grande quantité de données non structurées, alors que le smart data prend la peine de faire un tri intelligent de ces données avec un algorithme spécifique. Les données du smart data sont donc plus exploitables que celles du big data.
Big Data : les données sont partout
 Cette expression fait son apparition vers la fin des années 1990 mais c'est seulement à partir des années 2000 et de la montée en puissance des géants Google, Apple, Facebook, Amazon et Microsoft (les célèbres GAFAM) que le Big Data révèle tout son potentiel.
anglicisme La data : les données numériques. ➙ big data. On dit aussi les datas ou les data (invariable). spécialement Le volume de données numériques consultable ou téléchargeable sur son téléphone mobile.
Quels diplômes et quelles écoles choisir ? Pour devenir ingénieur(e) Big data, il faut obtenir un niveau Bac+5 minimum. Il est possible de suivre une formation informatique et réseaux dans une école d'ingénieurs, un master en Data Science.
Les big data sont souvent stockées dans un lac de données. Ces derniers peuvent prendre en charge différents types de données. La plupart du temps, il utilise des clusters Hadoop, des services de stockage d'objets dans le nuage, des systèmes NoS et des systèmes de gestion des données.
Cryptolocker, DataLeak, DDoS, falsification d'informations sont autant de risques que la cybersécurité combat au quotidien. Mais que se passerait-il si votre Système d'Information s'appuyait sur des sources de données multiples, protéiforme et sans aucune notion de maîtrise ?
Les plus connus sont par exemple Statistica, Stata ou encore SPSS. Ces logiciels permettent également de travailler sur des données textuelles, mais d'autres outils ont été spécifiquement développés en sciences humaines et sociales pour le traitement statistique de corpus de texte.
Les six V du Big Data (Velocity, Volume, Value, Variety, Veracity et Variability) sont les caractéristiques les plus importantes du Big Data. Les connaître permet aux data scientists de tirer davantage de valeur de leurs données.
Data Miner
 Il peut même parfois porter plusieurs casquettes ! Ses compétences sont la maîtrise des outils de stockage des données, ainsi que des connaissances en statistiques pour pouvoir anticiper sur le travail du Data Analyst. En France, le salaire moyen d'un Data Miner est de 45 966 € par an, selon Glassdoor.
Une « plateforme big data » n'est pas différente d'une « plateforme de données » : les deux sont conçues pour traiter des données à grande échelle. Le concept de « big data » a été popularisé dans les années 90, lorsque le volume de données généré par l'humanité a commencé à suivre une croissance exponentielle.
Les fournisseurs historiques de solutions IT tels que HP, Oracle, IBM ou SAP figurent parmi les principaux acteurs du Big Data. Ainsi, IBM propose depuis fin 2011 InfoSphere BigInsights Basic pour IBM SmartCloud Enterprise.
Le big data désigne un ensemble très volumineux de données qu'aucun outil classique ne peut vraiment travailler. Le cloud désigne un ensemble de ressources informatiques (stockage, services) disponibles sur internet plutôt que sur l'ordinateur.
L'optimisation des prix : Amazon utilise le Big Data pour affiner ses prix, attirer plus de clients et augmenter ses profits d'environ 25% chaque année. Les prix peuvent varier en fonction de votre activité, du pricing des concurrents, de la disponibilité de la référence et d'une multitude d'autres facteurs.
Quant à la liberté des individus, le Big Data n'entrave-il pas nos libertés ? La frontière entre les libertés individuelles et l'exploitation des données est assez étroite, et il s'avère délicat de tirer profit de ces données tout en respectant les libertés de chacun.