Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 18981 à 18990.

< Les 10 documents précédentsLes 10 documents suivants >


(17/07/2007 16:54:04)

Non signature de l'accord de méthode BO soumis aux salariés Cartesis

La direction de BO a soumis aux organisations syndicales un projet d'accord de méthode, dans le cadre de l'acquisition de Cartesis, avant même la clôture de l'opération. Disposition du droit du travail français, l'accord de méthode désigne la faculté, offerte aux organisations syndicales, de définir par voie d'accord, un certain nombre de dispositions, le cas échéant dérogatoires, en cas de possible annonce d'un PSE (plan de sauvegarde de l'emploi). Un tel accord permet ainsi à une direction de simplifier les règles légales de consultation du comité d'entreprise qui s'appliquent dans le cas d'un PSE, et de disposer d'un calendrier des consultations figé et réduit dans le temps. Aucune garantie contre des licenciements secs Mais il comporte également ses pièges et ses limites : ainsi, une déclaration commune émanant de la CFE-CGC, la CGT, et CGT-FO souligne qu' « idéalement, et dans l'esprit de la loi, l'intérêt d'un accord de méthode qui incite à des départs volontaires est de libérer, et donc de créer, des postes disponibles pour le reclassement des doublons potentiels suite à une fusion ou à un rachat. En pratique, dans le monde réel, de tels accords ont souvent pour principal but l'optimisation du rendement « boursier » des fusions ou acquisitions ». En tout état de cause, le projet d'accord présenté aux syndicats n'offrirait aucune garantie contre des licenciements secs car la direction restera souveraine dans ses choix. Selon les organisations syndicales, rien ne garantit que les postes libérés par les départs volontaires correspondent aux profils des salariés qui seront en doublon et menacés d'être frappés par un plan de sauvegarde de l'emploi. L'incitation aux départs volontaires ne réduira pas forcément le nombre de licenciements secs. Existe-t-il une réelle volonté de réduire les licenciements contraints ? Ou s'agit-il plutôt d'atteindre un objectif prédéfini de réduction d'effectifs en saisissant l'opportunité de se séparer des salariés les moins attachés à l'entreprise ? En tout état de cause, et estimant les préjudices et les risques trop importants, les syndicats ont décidé de ne pas signer cet accord de méthode. (...)

(17/07/2007 16:46:50)

Centres d'appel SFR : Jugement renvoyé sur le fond

Le comité central d'entreprise (CCE) de SFR et la CFDT, qui souhaitaient obtenir la suspension du plan d'externalisation de trois centres d'appel (Lyon, Toulouse, Poitiers), annoncé fin mai par l'opérateur, et employant 1 900 salariés, ont été déboutés par le juge des référés du tribunal de grande instance (TGI) de Paris, le 10 juillet dernier. La direction de SFR a alors indiqué qu'elle "continuerait à mettre en oeuvre le calendrier d'information-consultation du comité central d'entreprise", entendant ainsi poursuivre le transfert des trois centres d'appels. Reste que le secrétaire du CCE et la CFDT considèrent que le rejet de leur demande n'est pas une défaite, puisque l'affaire est renvoyée pour être jugée sur le fond. L'intersyndicale constate, en effet, que « les requérants n'ont pas été déboutés et que leurs demandes n'ont pas été rejetées ce qui prouve la légitimité qu'il y avait à entreprendre ces démarches ». Sortie de conflit possible D'ailleurs, la possibilité d'un renvoi au fond prouve bien la recevabilité des demandes. Mais étant donnée la nature complexe du dossier (accord GPEC, projet d'externalisation, négociations parallèles, etc.), la présidente a estimé qu'il était nécessaire qu'un juge du fond se prononce sur l'interprétation de l'accord GPEC du 12 octobre 2006. Il convient de noter qu'elle n'a, en particulier, pas tranché sur le fait que le projet d'externalisation était ou non compatible avec l'accord GPEC. L'intersyndicale continue de croire qu'une sortie de conflit est toujours possible si la direction de SFR confirme qu'elle est capable de changer de méthode en remettant le projet d'externalisation au rang des hypothèses et en laissant le temps nécessaire pour que d'autres analyses et propositions soient faites. (...)

(17/07/2007 16:15:52)

IBM s'offre DataMirror pour 162 M$

Le rachat du Canadien DataMirror pour 162 M$ par IBM marque la disparition du dernier éditeur indépendant de solutions de haute disponibilité sur le créneau des IBM System i (iSeries, AS/400). Cette annonce intervient à peine trois semaines après que la firme d'investissement Thomas Cressey Bravo (TCB) a mis la main sur Lakeview Technology. TCB avait commencé à écumer le secteur en septembre 2006 avec le rachat de Vision Solutions et, dans la foulée, d'i Tera. Outre qu'IBM n'a pas dû voir d'un bon oeil l'apparition d'un acteur en position de force sur un marché en pleine expansion (seulement 6000 des 200 000 clients System i sont équipés d'outils de haute disponibilité), ce rachat répond aussi à une autre motivation. DataMirror possède deux expertises. La première est sa compétence multiplateforme. Non seulement DataMirror dispose de PointBase, un SGBD sous Java, mais supporte tous les SGBD significatifs du marché (Oracle, SQL Server, Sybase, DB2) et ce, en environnement hétérogène (Windows, Unix...). DataMirror a aussi su aller au-delà de la haute disponibilité. Son savoir-faire en la matière lui a permis de développer Transformation Server qui permet d'identifier les informations qui ont changé et de les extraire en temps réel en vue de traitements spécifiques ou d'analyses. Une prestation en phase avec "Information on Demand", le slogan stratégique en vogue chez IBM, et avec des systèmes d'information équipés d'entrepôts de données dynamiques, de gestion des données maître, et configurés en architecture orientée service. (...)

(17/07/2007 15:36:46)

Google décline son outil de recherche pour les PME

Depuis mi-juillet, le moteur de recherche Google offre aux PME la possibilité d'adopter un moteur de recherche directement depuis leur site. Baptisée Custom Search Business Edition, ce service constitue une alternative entre Custom Search Engine et Google Appliance, les deux outils de recherche jusqu'à présent proposées par Google aux entreprises (le premier étant gratuit, le deuxième démarrant à de 2000 $ par mois). Adaptée au monde de l'entreprise, la nouvelle offre de Google est graduée : de la simplicité (qui n'exclut pas les liens publicitaires) à la haute personnalisation (de 5 000 à 50 000 pages web indexées, sans publicité intempestive), les prix varient de 0 à plusieurs milliers de dollars par an. Une PME qui n'indexera pas plus de 5 000 pages devra par exemple débourser tous les ans une centaine de dollars pour bénéficier de ce service. Avec cette offre, Google renonce à partager ses revenus publicitaires avec d'autres partenaires, et propose une version hébergée en « marque blanche » de son moteur de recherche. (...)

(17/07/2007 15:30:40)

Entretien : dix ans de recherche chez Microsoft

Rick Rashid et Andrew Herbert ont accepté de répondre aux questions du Mondeinformatique.fr sur la recherche chez Microsoft, mais aussi sur la façon dont la firme oriente ses travaux de recherche pour se préparer au futur. Lemondeinformatique.fr : Que représente pour vous ce dixième anniversaire du centre de recherche de Microsoft à Cambridge et quels sont vos axes de recherche pour le futur ? Rick Rashid : C'et un événement excitant. J'étais là il y a dix ans à Cambridge, et il y avait ce champ vide sur lequel nous avons construit ce bâtiment. Cambridge est alors devenu notre second centre de recherche, après celui de Redmond. Une des questions était de savoir si nous serions capables de travailler de concert, en bonne intelligence avec le monde de la recherche universitaire et cela s'est très bien passé. En fait à l'origine nous avions prévu d'avoir 40 chercheurs à Cambridge. Nous en avons aujourd'hui une centaine. Un autre succès du centre est que nous élargissons nos liens à d'autres domaines que la recherche informatique. L'un de nos axes de travail est par exemple l'utilisation des sciences informatiques dans le cadre de la recherche en sciences de la vie. C'est un domaine où il y a aujourd'hui beaucoup de données non-structurées et où de multiples formats cohabitent. Notre compréhension des systèmes biologiques reste parcellaire et, de façon générale, il y a un gros besoin d'organisation de l'information. D'une certaine façon, la physique a été aidée par les mathématiques, elle a notamment fait un usage massif des équations différentielles. Il en a été de même pour la chimie ou des équations permettent d'expliquer comment des composants se lient les uns avec les autres. Les biologistes n'ont pour l'instant pas cette structure ni ces mathématiques et un espoir est d'utiliser l'informatique pour trouver le genre de mathématiques qui permettrait d'expliquer et de modéliser les systèmes biologiques. On travaille par exemple sur l'application de techniques de datamining sur les jeux de données biologiques. Un autre domaine d'étude est celui de l'écologie et de l'analyse des impacts climatiques sur les écosystèmes. "Il est temps de modifier la façon dont on conçoit un système d'exploitation" Andrew Herbert : Si l'on regarde l'avenir, MS Research Cambridge a plusieurs domaines de forces autour des langages, avec de plus en plus d'attention sur les méthodes mathématiques pour valider de façon formelle le code que nous écrivons. Ceux d'entre nous qui travaillent sur les OS et les réseaux sont toujours au coeur de l'actualité. Le fait que les processeurs passent au multicoeur ouvre pas mal de questions sur la façon dont on peut organiser l'ordonnancement des tâches et comment on répartit les traitements entre coeurs. Il est temps, une nouvelle fois, de modifier la façon donc on conçoit un système d'exploitation. Le domaine du "machine learning" est aussi en plein développement. Il y a dix ans, on parlait beaucoup d'intelligence artificielle en s'appuyant sur des moteurs de règles. Aujourd'hui les méthodes statistiques sont appliquée à ce domaine et transforment en profondeur la façon dont on aborde le "machine learning", par exemple dans des domaines comme la reconnaissance vocale, la traduction assistée. [[page]] Quelle a été selon vous la contribution la plus importante du centre de Cambridge ? Rick Rashid : C'est un peu comme me demander lequel de mes enfants j'aime le plus. C'est une question à laquelle il est difficile de répondre. Il y a un certain nombre de choses dont je suis content. En particulier, les travaux de Cambridge ont eu un impact direct dans les travaux sur la genèse de .Net et notamment sur la définition de la CLR. On peut aussi tracer à Cambridge l'origine des technologies pair à pair de Vista. La liste pourrait être longue. Mais très franchement ce n'est pas la raison pour laquelle nous faisons de la recherche fondamentale. Notre but n'est pas de créer de nouveaux produits, mais d'être là lorsque le monde change. La recherche nous permet d'être agiles, de changer lorsque c'est nécessaire, de nous préparer face à l'irruption de nouvelles technologies. Le fait d'avoir un réservoir de personnes brillantes au sein de la société permet de mieux évoluer face aux changements brutaux. A ce titre les investissements de Microsoft en recherche sont parmi les plus lucratifs pour la société. "On investit dans la recherche pour être encore là dans dix ans" Vous savez, quand nous avons commencé, l'une des choses les plus difficiles était de convaincre des chercheurs de venir travailler pour Microsoft. Je me rappelle d'un pari en 1992 avec un de mes meilleurs amis professeur au MIT - qui me demandait pourquoi j'allais chez Microsoft, une société qui, disait-il pourrait ne plus être là dans cinq ans. Le pari était de savoir si Microsoft ou Digital Equipment seraient encore là dans dix ans. Six ans plus tard, DEC, l'un des titans de l'informatique de l'époque, n'était plus. C'est pour cela que l'on investit dans la recherche fondamentale, pour être encore là dans dix ans... Il y a un certains nombre de sujets sur lesquels nous avons travaillé, qui n'avaient a priori aucun intérêt pour la société et qui, quelques années plus tard, se sont révélés être essentiels pour son avenir. C'est pour des raisons similaires que des gouvernements investissent dans la recherche fondamentale afin que leur pays se prépare à l'avenir, qu'il ait un réservoir de personnes talentueuses et formées. Le Royaume Uni et notamment Cambridge ont été un des berceaux des recherche sur la construction d'un "ordinateur" avec les travaux de chercheurs comme Newton. C'est aussi en Angleterre que, pendant la guerre, de grands progrès ont été effectués avec les travaux de Turing qui ont largement défini l'algorithmie moderne ainsi que les fondamentaux de l'architecture d'un ordinateur. Certains considèrent qu'il n'y a pas eu d'évolution fondamentale au cours des 60 à 70 dernières années, que nous vivons encore largement sur les acquis de Von Neumann et Turing et qu'il faudra une évolution fondamentale des architectures informatiques pour voir une vraie évolution du logiciel. Qu'en pensez-vous ? Rick Rashid : C'est une question très large. Nous évoluons en permanence. Les concepts de base des automates de calculs datent des années 1600 et 1700. Il y a aujourd'hui des recherches lourdes autour du quantum computing qui ont le potentiel de changer fondamentalement la façon dont nous approchons l'informatique. Mais cela ne veut pas dire que notre connaissance des systèmes informatiques ne progresse pas hors de ces domaines. En fait, la recherche en informatique a beaucoup progressé au cours des récentes années. Nous avons aujourd'hui une bien meilleure compréhension de ce qu'est un système informatique. Notre compréhension de ce qu'est un programme a évolué de façon spectaculaire au cours des cinq dernières années. Nous pouvons désormais faire des affirmations formelles sur un programme contenant plusieurs centaines de milliers de lignes de code et prouver son fonctionnement. Nous n'étions pas capables de le faire jusqu'alors. Nous avons aussi une bien meilleure compréhension des types de données. L'usage de méthodes statistiques a aussi permis de faire évoluer des pans entiers de la recherche informatique par exemple en matière de "machine learning". Notre discipline a donc considérablement évolué même si elle reste contrainte par des architectures. Andrew Herbert : Je me souviens que, lorsque j'ai commencé ma carrière informatique, le premier ordinateur que j'ai utilisé aurait pu être une machine de Turing. Le nombre d'instructions était tellement restreint que je crois que je pourrais encore les réciter de tête. Si je regarde un processeur moderne, il me faudrait de multiples couches de machines de Turing pour expliquer ce qu'il se passe. C'est un modèle bien plus riche. Rick Rashid : En fait je ne suis pas sûr que Von Neumann ou Turing reconnaîtraient leurs petits en voyant un ordinateur moderne. Tout a beaucoup évolué [[page]] Vous avez dit précédemment que l'ère de l'intelligence artificielle telle qu'on l'avait connu était arrivée à sa fin. Rick Rashid : En fait, on a par le passé beaucoup travaillé sur des systèmes à base de règles, qui était une approche très structurée. L'idée était qu'avec un jeu de règles suffisamment complet on pouvait obtenir de bons résultats. Aujourd'hui on utilise des approches beaucoup plus statistiques. Une des raisons pour lesquelles ces approches sont aujourd'hui possibles est liée à l'évolution exponentielle de la puissance des ordinateurs qui permet de traiter des jeux de données colossaux. De fameuses organisations de recherche, telles que le Parc de Xerox ou les Bell Labs, ont fait des découvertes qu'ils n'ont pas su exploiter, ou dont ils n'ont pas vu le potentiel, ratant parfois de vraies pépites d'or. Avez-vous des mécanismes en place pour ne pas rater une éventuelle pépite ? Rick Rashid : Nous avons un processus systématique d'analyse de nos recherches et un groupe de MS Research est spécifiquement chargé des transferts de technologies. L'objectif est d'identifier de façon systématique les technologies qui pourraient être utiles pour les groupes produits de Microsoft. Nous avons aussi des équipes au sein de Microsoft qui viennent régulièrement dans les laboratoires pour voir quelles recherches pourraient leur être utiles dans leurs développements. Certaines organisations de recherche comme les laboratoires d'IBM encouragent la mobilité régulière entre la recherche et les groupes produits et permettent à leurs chercheurs de bouger régulièrement entre recherche et développement. Avez-vous des règles similaires en place ? Andrew Herbert : Nous n'avons surtout pas de règle ! Et comme il n'y a pas de règle, c'est bien entendu possible. Par exemple, certains de nos chercheurs ont suivi leur idée dans le cadre d'un transfert de technologie afin de la transformer en produit. Dans le laboratoire de Cambridge nous avons des projets en cours qui peuvent permettre aux chercheurs concernés d'accompagner leur recherche lorsqu'elle s'incarnera en produit. Certains le font, d'autres préfèrent se consacrer uniquement à la recherche et c'est très bien ainsi. (...)

(17/07/2007 14:58:54)

Mobilisation massive pour préserver la neutralité financière d'Internet

La pression des fournisseurs d'infrastructure américains (carriers) pour facturer l'accès à leurs équipements haut débit rencontre une résistance d'autant plus forte que la défaite des Républicains a donné un Congrès moins favorable à ce lobby. Depuis l'ouverture de son appel à commentaires en mars, la FCC (Federal Communications Commission) a reçu près de 29 000 avis à propos de la neutralité d'accès à Internet. Outre des milliers de particuliers, la menace d'un Internet à plusieurs vitesses inquiète aussi les membres de la CCIA (Computer & Communications Industry Association) dont font partie Microsoft et Google. Si la neutralité financière d'Internet venait à être remise en cause aux Etats-Unis, nul doute qu'elle serait instantanément attaquée en Europe. (...)

(17/07/2007 12:48:27)

NEC et Stratus font tolérance aux pannes commune

Le Japonais NEC et l'Américain Stratus co-annoncent une gamme de serveurs à tolérance de panne à base de Xeon 5100 et 5300. Concurrentes des systèmes Tandem, désormais chez HP, les machines Stratus sont construites avec une redondance des éléments vitaux. Du coup, le prix de base de ces serveurs se situe aux environs des 20 000$. Les deux constructeurs supportent Windows Server 2003 en 32 bit, le support de la version 64 bits est évoqué pour fin 2007 et celui de RHEL 4 en 32 et 64 bit pour septembre. Alors qu'il réduisait sa participation au capital de Bull, NEC a porté fin 2005 sa participation dans Stratus à près de 10%. (...)

(17/07/2007 12:12:45)

L'externalisation en hausse de 78% en Europe

La demande d'externalisation a massivement augmenté dans les entreprises européennes durant le premier semestre 2007. Le cabinet de conseil Advisers TPI chiffre la progression de l'externalisation à 78% par rapport à l'année dernière. Outre-Atlantique, la tendance est inverse : IDC prévoie à peine une croissance de 3,5% dans l'outsourcing. « Les pays européens continentaux ont été relativement lents à adopter l'externalisation, détaille Duncan Aitchison, directeur du marketing chez TPI. Il y a cinq ans, seules 12% des entreprises avaient opté pour une politique d'externalisation. Ce chiffre est aujourd'hui passé à 30% », rajoute-t-il. L'étude souligne également que sur les 5,2 M£ que rapportent chaque année les grand contrats de l'outsourcing, plus des deux tiers des bénéfices seront réalisés en Europe. (...)

(17/07/2007 11:07:38)

Vague de spams par PDF selon Commtouch Software

Commtouch Software, une société israélienne de services informatiques, avertit les internautes contre un nouveau type de menace, le spam exploitant le format PDF. D'après Commtouch, utilisateurs comme prestataires de services sécurité s'accordent à dire que les spams textuels et même à base d'images sont sur le déclin. Mais les pollueurs du net regorgent d'imagination pour contourner les obstacles des éditeurs d'anti-spams. Un nouveau type de danger est en train d'émerger, le spam PDF. Il sert en général à duper le destinataire dans le but de l'inciter à acheter des actions dans une entreprise. En juin dernier par exemple, un polleur avait lancé une gigantesque campagne de spams PDF (plus de 5 milliards d'envois) afin de vendre des actions Talktech / Telmedia qu'il avait acquises à bas prix. Une réussite, puisque la valeur de l'action a augmenté de 20% dans la journée. Toujours d'après Commtouch Software, entre 10 et 15% des spams que les entreprises reçoivent actuellement proviendraient de cette nouvelle génération de courriers pollueurs. Vu le poids des messages (ils sont en moyenne trois à quatre fois plus lourds que les spams classiques), cette vague a entraîné une augmentation du trafic Internet de 30 à 40%. Mais comment le spam PDF parvient-il à échapper aux filtres ? La technique est simple : le message n'est plus affiché dans le titre, le texte ou la photo du mail, mais dans un fichier PDF attaché. Les filtres actuels ne sont pas encore capables de les déchiffrer, de les détecter et de les bloquer. Par ailleurs, le spam PDF circule en général via un réseau de « PC zombies » dispatchés dans le monde entier... donc difficiles à localiser. (...)

< Les 10 documents précédentsLes 10 documents suivants >