En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d’intérêts.FERMER  x
Pour en savoir plus et paramétrer les cookies...

Sybase s'ouvre à l'architecture MapReduce

Avec Sybase IQ 15.4, le spécialiste du datawarehouse s'aligne sur le modèle de distribution de traitements qui est au cœur du big data.

laisser un avis
La filiale de SAP, spécialisée en stockage de données décisionnelles, s’aligne sur les principales technologies du big data. Lancée à la fin du mois en France, la nouvelle version de l'entrepôt de données Sybase IQ 15.4 s’ouvre en effet à deux frameworks emblématiques : MapReduce, modèle de programmation basé sur la distribution des tâches et Apache Hadoop, qui distribue les traitements sur différents clusters, notamment via son système de fichiers HDFS. Tout deux étant taillés pour les énormes volumes de données, structurées ou non.
 

Une API pour les partenaires analytiques

Avec cette nouvelle version, Sybase propose une API MapReduce sur laquelle pourront s’appuyer ses partenaires analytiques. Depuis la 15.1, il propose en effet à des éditeurs spécialisés dans les modèles prédictifs de faire tourner leurs fonctions de scoring ou de régression linéaire au sein de sa base. « Or aujourd’hui certains de ses éditeurs, comme Fuzzy Logix, commencent à s’aligner sur MapReduce. Notre nouvelle API leur permet donc avec IQ de se conformer à ce mode de décomposition des traitements », explique François Guerin, responsable avant-vente de Sybase.
 

Une passerelle vers Hadoop

La 15.4 offre également une passerelle vers Hadoop. Passerelle qui repose sur le projet Apache Sqoop (SQL-to-Hadoop) lequel vise à assurer une intégration entre une base relationnelle (ici Sybase IQ) et le système de fichiers distribués. Elle servira notamment à réinjecter dans l’entrepôt de données les traitements analytiques effectués dans Hadoop, sur des données non structurées ou semi-structurée.
Reste à voir si cette arrivée dans le big data et dans le traitement d’énormes quantités de données correspond à une demande massive sur le terrain.
 
envoyer
par mail
imprimer
l'article
@01Business_fr sur
à lire aussi
SUR LES MÊMES THÈMES
Le big data et la sécurité : plus de données... plus de problèmes
Oodrive rachète Active Circle, un expert du stockage big data
Comment aider le cerveau à appréhender le big data
Big Data, radioscopie d’un nouveau gisement d’opportunités pour la grande distribution
On dépensera plus en 2015 !
01 Replay : Coup de pouce à la startup Price Match
Apple et IBM nouent une alliance historique
Coupe du monde : l'Allemagne avait un douzième homme... le big data
Coup de projecteur sur les délicates -mais parfois réussies- relations entre startups et grands comptes
Le plan big data vise à créer 80 000 emplois d’ici 2020
Un milliard de données remontent automatiquement chaque jour depuis les smartphones
Deux "jobs en or" recherchés par les entreprises en 2015
Avec Dataflow, Google analyse les flux de données à la volée
La high tech, un renfort de poids pour les équipes de football
Ressources humaines : qui a peur du grand méchant big data ?
01 replay : Le big data au coeur de la transformation des banques
Comment rater son projet big data en 12 leçons
Le big data est difficilement soluble dans les organisations traditionnelles
Hadoop est en passe de détrôner le datawarehouse traditionnel
SAP peaufine son écosystème pour le développement d’applications mobiles