Le responsable a également indiqué qu'il n'était pas nécessaire de rearchitecturer ou de configurer les applications. «  Vous n'avez pas besoin de faire quoi que ce soit sur l'infrastructure de stockage », a-t-il insisté.  « Le cache se trouve au milieu, identifie automatiquement les données les plus actives, place une copie sur un lien haut débit et les applications par extension vont plus vite. »

Triplement des performances


Andrew Flint a également indiqué que, sur des bases de données standard, le logiciel de mise en cache pouvait tripler les performances. « Sur des applications OLTP, qui sont lues plus intensivement, la performance peut être multipliée par 18 » a-t-il assuré.

Alors que les serveurs d'applications exécutent déjà une certaine quantité de données stockées dans la mémoire DRAM volatile, le niveau de la mise en cache est limitée entre 4 à 8 Go. Le logiciel  d'accélération du cache d'Intel tire profit  de la haute capacité des SSD, qui peut atteindre plus d'un To. Ces bénéfices varient sensiblement selon les systèmes et dépend du ratio des données situées en back-end par rapport aux données actives sur le serveur et si celles-ci sont en lecture ou en écriture intensive. La solution d'Intel accélère le cache en lecture.  « Si votre application ne fait rien de plus que de la relecture, vous aurez les mêmes performances sur nos caches à deux niveaux que sur un cache SSD à un seul niveau, » a exposé Andrew Flint.

« D'autre part, dans les scénarios où l'on fait fonctionner des bases de données, des choses comme des index ou des tables temporaires deviennent extrêmement sollicitées pendant une période de temps, nous pouvons assurer que ces indices et tables temporaires sont dans la mémoire, et, ce faisant, nous pouvons stimuler la performance du système qui va bien au-delà de ce que l'on pourrait obtenir en transférant l'ensemble des données sur un SSD. »

Pour s'assurer qu'il ne duplique pas des tâches déjà en cours d'exécution dans la DRAM, le logiciel prend le contrôle de tous les accès aux données. Les plus utilisées sont placées sur la DRAM, tandis que les moins utilisées, mais qui produisent beaucoup d'I/O, sont sur le SSD. La solution fournit une intégration coopérative entre le cache DRAM du serveur standard et celui du SSD d'Intel, créant un cache multi-niveau qui optimise l'utilisation de la mémoire système et détermine automatiquement le meilleur niveau de cache pour les données actives.

Le fondeur a présélectionné sa solution pour une utilisation avec ses SSD SATA 3700 ou ses cartes flash 910 series PCIe.