En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d’intérêts.FERMER  x
Pour en savoir plus et paramétrer les cookies...

Sybase s'ouvre à l'architecture MapReduce

Avec Sybase IQ 15.4, le spécialiste du datawarehouse s'aligne sur le modèle de distribution de traitements qui est au cœur du big data.

laisser un avis
La filiale de SAP, spécialisée en stockage de données décisionnelles, s’aligne sur les principales technologies du big data. Lancée à la fin du mois en France, la nouvelle version de l'entrepôt de données Sybase IQ 15.4 s’ouvre en effet à deux frameworks emblématiques : MapReduce, modèle de programmation basé sur la distribution des tâches et Apache Hadoop, qui distribue les traitements sur différents clusters, notamment via son système de fichiers HDFS. Tout deux étant taillés pour les énormes volumes de données, structurées ou non.
 

Une API pour les partenaires analytiques

Avec cette nouvelle version, Sybase propose une API MapReduce sur laquelle pourront s’appuyer ses partenaires analytiques. Depuis la 15.1, il propose en effet à des éditeurs spécialisés dans les modèles prédictifs de faire tourner leurs fonctions de scoring ou de régression linéaire au sein de sa base. « Or aujourd’hui certains de ses éditeurs, comme Fuzzy Logix, commencent à s’aligner sur MapReduce. Notre nouvelle API leur permet donc avec IQ de se conformer à ce mode de décomposition des traitements », explique François Guerin, responsable avant-vente de Sybase.
 

Une passerelle vers Hadoop

La 15.4 offre également une passerelle vers Hadoop. Passerelle qui repose sur le projet Apache Sqoop (SQL-to-Hadoop) lequel vise à assurer une intégration entre une base relationnelle (ici Sybase IQ) et le système de fichiers distribués. Elle servira notamment à réinjecter dans l’entrepôt de données les traitements analytiques effectués dans Hadoop, sur des données non structurées ou semi-structurée.
Reste à voir si cette arrivée dans le big data et dans le traitement d’énormes quantités de données correspond à une demande massive sur le terrain.
 
envoyer
par mail
imprimer
l'article
@01Business_fr sur
à lire aussi
SUR LES MÊMES THÈMES
Comment rater son projet big data en 12 leçons
Le big data est difficilement soluble dans les organisations traditionnelles
Hadoop est en passe de détrôner le datawarehouse traditionnel
Deloitte dévoile les dix tendances technologiques 2014
IBM se sert du big data pour lutter contre la fraude
Le big data fait un tabac au concours mondial de l’innovation
Spécialiste du big data, Cloudera lève 160 millions de dollars
Les objets connectés, cheval de Troie du big data ?
Big data, sécurité et mobile : le tiercé gagnant du CeBIT 2014
Axa et Withings lancent un appel à projets pour les startups des objets connectés
A côté de la DSI, le marketing mérite sa propre plateforme digitale
Les grands distributeurs, ces précurseurs du big data
Big Data ou comment la technologie se met au service des métiers
Les salaires des spécialistes du big data s’envolent
01 Replay : Les nouveaux enjeux du big data
Municipales : NKM veut faire de Paris la capitale de l'open et du big data
IBM met le big data au service des RH
L'Inria dévoile ses projets d'interfaces homme-machine
Bull table sur le cloud et le big data pour améliorer sa rentabilité
SAP peaufine son écosystème pour le développement d’applications mobiles