13 novembre 2007 2 13 /11 /novembre /2007 16:49

Présentation de la plateforme Windows SharePoint Services 3.0 : Le stockage et la gestion des documents, la collaboration, la gestion des informations et la communication sont quelques-unes des technologies de  collaboration fournies par WSS 3.0.

Le stockage et la gestion des documents, la collaboration, la gestion des informations et la communication sont quelques-unes des technologies de  collaboration fournies par WSS 3.0.

WSS 3.0 améliore les plateformes de stockage conventionnelles. Les capacités de stockage et de gestion des documents de WSS 3.0 incluent la création, le stockage, le suivi, le maintien du contrôle de version, la suppression et la  restauration de documents.

Fonctionnalités de stockage et de gestion des documents dans WSS

Les fonctionnalités de stockage et de gestion des documents dans WSS sont les suivantes :

Bibliothèque de documents : Cette bibliothèque est un référentiel dans le site où vous stockez et gérez des documents. Vous pouvez personnaliser la bibliothèque Documents partagés par défaut ou créer votre propre bibliothèque. Vous pouvez aussi sécuriser davantage vos bibliothèques en appliquant des autorisations personnalisées. Les personnalisations des utilisateurs pour les bibliothèques de documents sont abordées dans le module 2 du cours 5942A, Implémentation de Microsoft Windows SharePoint Services 3.0.

Types de contenu : Les types de contenu sont des collections réutilisables que vous appliquez à vos documents et à vos sites. Document, Image et Formulaire sont des exemples de type de contenu. Ainsi, si vous souhaitez créer un document qui collecte des informations sur les clients, sélectionnez le type de contenu Formulaire car celuici comporte des contrôles tels que des zones de texte, des cases à cocher et des boutons.

Contrôle de version

Gestion des flux de travail

Bibliothèque d'images

Suivi des tâches

Tâches

Liste des problèmes

Corbeille

Prochainement : Technologies WSS prenant en charge la collaboration

 

Partager cet article
Repost0
11 octobre 2007 4 11 /10 /octobre /2007 13:39

A première vue, le partenariat entre la Tunisie et Microsoft est au beau fixe et la visite de Steve Ballmer, son PDG, est là pour en attester. Une visite féconde qui a été couronnée par des contrats de 5 projets d’envergure pour plus de 20 millions de dinars. Un coup dur pour les défenseurs du logiciel libre dans notre pays.

Pour 5 millions de dinars, le premier marché concerne l’achat de licences Office et Windows pour équiper ministères et administrations et pour régulariser des licences utilisées mais non achetées.

Pour 4 millions de dinars, le deuxième marché touche des licences différentes de Microsoft, allant de Windows à Office en passant par les logiciels de messagerie, intranet et portail.

Deux autres marchés ont été conclus sous forme d’accords avec différents ministères et notamment celui de l’Education et de la Formation (pour la fourniture aux écoles, collèges et lycées secondaires de licences Windows et Office pour une valeur symbolique de 2,5 dinars par poste de travail) et celui de l’Enseignement supérieur, de la Recherche scientifique et de la Technologie pour la fourniture des mêmes produits pour une valeur de 35 dinars par poste de travail.

On imagine évidemment les retombées de tels contrats sur le domaine des logiciels libres puisque cette politique des prix très ‘’étudiés’’ est en train de permettre à Microsoft d’occuper le terrain et de lui couper la route. Une politique à moyen et long terme qui cible de préférence les jeunes écoliers et qui vise à leur faire pendre les ‘’bonnes habitudes’’. Avec la généralisation des ordinateurs et de l’Internet dans toutes les écoles, Microsoft gagne sur les deux tableaux puisqu’il se rattrape sur le nombre… même si l’unité n’est que de 2,5 dinars !

C’est aussi l’occupation du terrain qui motive les ‘’dons’’ de ressources (par exemple, les logiciels pédagogiques) et qui donnera sans doute du fil à retordre aux chantres du logiciel libre. !!!

Partager cet article
Repost0
17 mars 2007 6 17 /03 /mars /2007 10:41
Partager cet article
Repost0
5 mars 2007 1 05 /03 /mars /2007 10:57

Thème : Techniques de communication
 et de motivation en pédagogie

La motivation


1/Définitions

1/Définitions

 2/De quoi dépend la motivation ?

 3/ Les facteurs de motivation 

 4/Comment favoriser la motivation ?

 5/Quatre règles fondamentales pour gérer les motivations

 6/Qu'est-ce qu'une pédagogie de la motivation ?

 Télécharger le fichier

Partager cet article
Repost0
18 janvier 2007 4 18 /01 /janvier /2007 11:30

Dossier : 2ème episode

Le web 2.0 qui fait ses gorges chaudes des web services, n’a cure de l’interopérabilité. Le web 2.0 qui se gargarise de décentralisation, n’a, la plupart du temps, que le souhait de centraliser vos données dans ses services.

On devine bien que cela ne tiendra pas longtemps comme cela. Que passé l’enthousiasme des premiers utilisateurs, il sera plus difficile de convaincre des particuliers, des entreprises ou des services publics de se mettre à ce modèle - malgré ses indubitables avantages.

Prenons l’exemple d’une collectivité territoriale désirant constuire un système d’information géographique (SIG) dans lequel ses partenaires, voire tout un chacun, pourraient venir piocher et déposer des données. Sur quelle base bâtir le service ? Un service “web 2.0″ tel que Google Maps (comme le propose Comité touristique de la Vendée ), Yahoo! Maps, ou Windows Live Local de Microsoft ? Le Géoportail de l’IGN ? Faut-il bâtir 4 services ? Sur quels critères ? Celles des fonctionnalités existantes ou celles de fonctionnalités qui se transforment sans cesse et sur lesquels nulle n’a une vision précise à court ou moyen terme ? Comment mesurer les avantages et inconvénients de chaque solution ?

Comment même décider d’investir, alors que le kriegspiel entre les acteurs du web 2.0 ne permet à personne de prévoir comment évolueront les fonctions de chaque service, lequel fédèrera le plus grand nombre d’utilisateurs, ce que deviendront nos données et quel usage il en sera fait ? La collectivité doit-elle développer sa cartographie ad hoc, même si elle ne pourra jamais suivre le coût d’innovation que cela suppose et que ces géants sont capables d’y mettre ? Comment motiver le choix - et donc le coût - d’un service plutôt que d’un autre ? Sans compter que si le choix s’avère mauvais - par manque d’innovation technique ou par manque d’utilisateurs de la plate-forme -, cela nécessitera-t-il de tout jeter et tout recommencer ?…

Nous le disions déjà il y a plusieurs mois : il est temps pour le web 2.0 de grandir un peu.

Partager cet article
Repost0
11 décembre 2006 1 11 /12 /décembre /2006 11:19

Dossier : 1ère episode

 

On le savait, le “web 2.0″ ne se définit pas vraiment par un degré ou un type particulier d’innovation technique. Il se comprend plutôt comme une plate-forme de services, c’est-à-dire une floraison d’outils censés donner du choix et du pouvoir à l’utilisateur en réseau.

Mais voilà, avec le temps, le
web 2.0 ressemble de plus en plus à un catalogue de la Manufacture d’armes & cycles, proposant des collections toujours plus vastes d’outils aux capacités toujours plus innovantes et en même temps, à la longue, de moins en moins différenciantes - si ce n’est le nombre d’utilisateurs, qui donne une dimension particulière à certains services. Un catalogue dans lequel l’internaute est censé devoir puiser, avec plus ou moins de liberté (choisissè-je un service pour ses qualités propres, ou bien mes proches m’imposent-ils de fait celui qu’ils utilisent ?) et dont l’agrégation du choix final, numériquement valorisé, est à la source de toute une “nouvelle nouvelle économie”.

On finit par se perdre dans la redondance de ces services. On utilise les outils du web 2.0 comme on utilise plusieurs
logiciels de messagerie instantanée (parce que les enfants sont sur MSN, les relations de travail sur Skype et les amis sur Google Talk…). Et nous voilà contraint de surfer entre Del.icio.us, Furl, Blogmarks et StumbleUpon pour gérer nos signets, entre Yahoo, FlickR, Fotolia et autres 8116, pour nos photos, entre Zoho, Writeboard, Google Spreadsheets pour nos documents partagés… Nos réseaux sociaux nous imposent leurs services et ceux-ci nous imposent leurs contraintes, en pleine connaissance de cause : il s’agit, d’une part, que nous attirions à notre tour nos relations dans leurs filets et d’autre part, de rendre la migration vers des services concurrents plus difficile.


Comme le remarquait déjà Karl Dubost, fleurissent ainsi sur les sites des bataillons d’icônes. Nous sommes sollicités par une redondance d’outils entre lesquels il devient impossible de prendre son parti. Où l’utilisateur doit faire son choix, son marché, son ménage, au petit bonheur la chance.

Et dire que naïvement, nous pensions que l’internet et le web tiraient leur force de l’interopérabilité. Et dire que nous pensions que le web 2.0 était “centré sur l’utilisateur”…

Pourquoi donc devons-nous nous déclarer à tous ces services, totalement redondants entre eux ? Pourquoi dois-je utiliser trois outils différents de “signets sociaux” plutôt qu’une plate-forme fondée sur un standard commun, dans laquelle tous les services viendraient puiser pour permettre à ceux qui constituent mon réseau de suivre mes signets quelle que soit la plate-forme qu’ils utilisent ? On se croirait revenus aux premiers temps de l’informatique, quand un texte écrit sur
Mac ne s’ouvrait pas sur un PC et vice versa ! 

A suivre...

Partager cet article
Repost0
17 juillet 2005 7 17 /07 /juillet /2005 23:00
Intel devrait annoncer toute une nouvelle flopée de processeurs pendant son forum consacré aux développeurs qui aura lieu du 23 eu 25 août. L'ensemble des gammes sera renouvelé début 2006 : le Yonah fera son entrée dans le monde des ordinateurs portables et des Mini PC et le 65nm sera partout.

Si on l'on résume les futures évolutions, voici les transitions annoncées :
  • Le Cedar Mill remplacera les actuels Pentium 4 et Celeron D
  • Le Presler remplacera l'actuel Pentium 4 dual-core 90nm (Smithfield), la dénomination passera alors de 8xx à 9xx
  • Le Conroe remplacera le Presler vers la fin de l'année 2006
  • Le Yonah, en versions mono et dual-core, remplacera l'actuelle version 90nm du Pentium M.
Tous ces processeurs seront gravés en 65nm. On sait également qu'il ne faudra plus attendre de changement dans les fréquences car celles-ci resteront tout bonnement els mêmes. Le Cedar Mill sera par exemple introduit dans la série 600 et ses fréquences s'étaleront de 3 à 3.8GHz, c'est-à-dire du modèle 63x au modèle 67x. Le dernier chiffre indiquera la présence de la technologie de virtualisation Vanderpool : un 1 indiquera qu'il s'agit d'une version standard, un 3 indiquera la présence de Vanderpool. Le processeur embarquera par ailleurs 2Mo de mémoire cache de niveau 2.

Si vous trouvez cela compliqué, la branche dual-core devrait vous plaire d'avantage. Comme dit précédemment, la branche 9xx remplacera l'actuelle 8xx. Les nouveaux processeurs Presler seront donc les modèles Pentium 920 (2.8 GHz), 930 (3.0 GHz), 940 (3.2 GHz) et 950 (3.4 GHz). Pas plus ? Non pas plus, car dans la même année le Conroe remplacera le Presler. Une gestion de la consommation et un cache plutôt conséquent. Avec le Conroe, la série 900 reprendra donc au modèle 940 et ira ensuite vers le 950 et le 960. Les fréquences de ces modèles n'ont pas contre pas été communiquées.
Partager cet article
Repost0
21 avril 2005 4 21 /04 /avril /2005 23:00

Centre d'Etudes et des Recherches des Télécommunications (CERT)
Adresse : 42, Rue Asdrubal - 1002 Tunis
Tél. : 71 790 877 

Missions

  • Recherche appliquée et recherche-développement dans le domaine des télécommunications.
  • Réception technique des équipements et produits susceptibles d'être connectés aux réseaux publics.
  • Homologation des produits destinés à être exploités en connexion avec les réseaux nationaux de télécommunications.
  • Etudes spécifiques et analyse de proposition de prestations de services ou d'équipement pour la mise en place et le développement des réseaux de télécommunications :
      • Etudes des réseaux d'accès
      • Communication d'entreprise
      • Etudes et recherche postales
      • Commutation et télématique
      • Transmissions


Les unités de recherche du CERT et leurs principales activités

Laboratoire d'homologation

Vérification de conformité et le contrôle des équipements terminaux de télécommunications et des équipements radioélectriques.

Centre de calcul et de développement

  • Gérer et développer les moyens informatiques, bureautiques et téléinformatiques.
  • Développer des applications informatiques dans les domaines des télécommunications et postales.

Les ressources humaines

  • 2 chercheurs statutaires
  • 113 cadres techniques
  • 45 administratifs
  • 17 ouvriers
Partager cet article
Repost0
18 mars 2005 5 18 /03 /mars /2005 00:00

En quelques mois, il y a cent ans, un obscur ingénieur expert du Bureau des brevets de Berne jetait les bases d'une nouvelle physique qui n'a encore jamais été mise en défaut à ce jour.

Le 17 mars 1905, Albert Einstein adressait à l'éditeur de la très renommée revue allemande "Annalen der physik" le premier d'une série de six articles qu'il écrira cette année-là, dont quatre seront ultérieurement considérés comme les fondements de la physique moderne.

Dès ce premier article, qui sera publié le 9 juin, intitulé "Sur un point de vue heuristique concernant la production et la transformation de la lumière", Einstein introduit une révolution en donnant une interprétation quantique de l'effet photoélectrique.

Alors que, depuis un siècle, s'était imposée la théorie ondulatoire de la lumière, Einstein avance l'idée que l'énergie a une structure granulaire, quantifiée: elle s'exprime par "paquets" (quanta) et les ondes elles-mêmes sont quantifiées. Autrement dit, la lumière est à la fois ondes et particules, ce qui, aujourd'hui encore, continue de défier le sens commun.

Ce n'est qu'au début des années 1920 que cette idée sera admise par la communauté des physiciens et qu'Einstein recevra le prix Nobel de physique (1921) "pour ses contributions à la physique théorique".

Rédigé un mois plus tard, le deuxième article, qui porte le titre "Une nouvelle détermination des dimensions moléculaires", porte sur le dénombrement des atomes ou des molécules dans un volume donné.

Le troisième, reçu par la revue le 11 mai, est consacré à une manifestation macroscopique de l'existence des atomes, le mouvement brownien: "Sur le mouvement des particules en suspension dans les fluides au repos requis par la théorie cinétique moléculaire de la chaleur". Einstein complétera cet article par un second, qu'il adressera à son éditeur en décembre et qui sera publié en 1906.

De loin le plus connu, le quatrième article, "Sur l'électrodynamique des corps en mouvement", qui parvient aux "Annales de physique" le 30 juin, est considéré comme le texte fondateur de la relativité, appelée plus tard "relativité restreinte". Einstein y remet en cause les principes fondateurs de la physique en se fondant sur deux postulats qui entrent en conflit avec la mécanique classique : celui de la relativité, énoncé deux siècles plus tôt par Galilée, selon lequel "le mouvement (rectiligne et uniforme) est comme rien", et celui de la constance de la vitesse de la lumière.

Le 27 septembre, enfin, la revue reçoit un cinquième article intitulé "L'inertie d'un corps dépend-elle de son contenu en énergie ?", dans lequel Einstein montre l'équivalence entre masse et énergie : si un corps libère une quantité d'énergie E sous forme de lumière, sa masse m diminue d'une quantité E/c2 (E divisée par le carré de la vitesse de la lumière). E = mc2 : celle qui allait devenir la plus célèbre formule de physique est née.

Avec sa notion de quanta d'énergie, Einstein apportait le fondement de la mécanique quantique. Dans son article sur le mouvement brownien, il apportait la preuve de l'existence des atomes et la possibilité de les compter. Avec sa théorie de la relativité restreinte, il fondait la notion d'espace-temps.

Au cours des dix années suivantes, Einstein, au prix d'un labeur acharné et l'aide d'un de ses amis mathématiciens, Marcel Grossmann généralisera cette théorie, pour en faire une théorie relativiste de la gravitation, la relativité générale, base de la cosmologie scientifique.
Partager cet article
Repost0
14 mars 2005 1 14 /03 /mars /2005 00:00

Ckoiketufé ? Doukipudonktenkeça ? Vous avez du mal avec le parler SMS ? Vous aimeriez bien rester en contact linguistique avec les "djeun's" ? Le Traducteur Français-SMS est fait pour vous !

Développé par le Centre de traitement automatique du langage de l'Université Catholique de Louvain (Belgique), le Traducteur Français-SMS vous permet de savoir que "Que fais-tu ce soir ?" s'écrit "q fé-ti se soar ?" en langage djeun's. Ou encore que pour organiser sa soirée ciné, il faut savoir écrire "ques se qil y a o sinéma ?".

Mais comment ça marche ? Bonne question dont voici la réponse s'il faut croire les créateurs du site : "1. On applique un dictionnaire construit à partir du corpus de SMS, afin de remplacer certains mots par une de leurs traductions SMS attestée dans des messages réels. Ce sont les mots qui apparaissent en rouge dans le texte traduit.

2. Un programme applique des règles de réécriture inspirées de phénomènes trouvés dans le corpus, comme par exemple réécrire le son "oi" en "wa". Les séquences modifiées apparaissent en bleu.

3. Les réécritures issues du dictionnaire sont appliquées aléatoirement. Le paramètre "Degré de compression" correspond au taux d'application des autres règles de réécriture.

4. Bien que les traductions soient en moyenne plus courtes que les textes originaux, toutes les règles sont appliquées sans se soucier de la longueur des séquences produites." C'est aussi simple que ça !

Voilà en tout cas un guide qui va peut-être aider à réduire la fracture générationnelle... "Pas tn bac dabord !"

Pour voir le site : cliquez ici

Partager cet article
Repost0
12 mars 2005 6 12 /03 /mars /2005 00:00

En matière d'avancement des technologies de l'information et de la communication, la France occupe la 20e place mondiale. C'est ce que révèle l'étude "Global Information Technology Report", réalisée par le Forum économique mondial en partenariat avec l'école de management Insead.

Ce classement, établi depuis 4 ans, mesure «le développement et l'utilisation des technologies de l'information et de la communication» de 104 pays. Le taux et la rapidité de leur adoption par les entreprises, les particuliers et les administrations comptent parmi les critères d'évaluation.

Singapour accapare la première place pour l'année 2004, damant le pion aux États-Unis, relégués en 5e position après 3 années sur la plus haute marche du podium. L'Europe du Nord est représentée dans le peloton de tête avec la seconde place de l'Islande, suivie de la Finlande et du Danemark. la Tunisie est  classée 31ème sur 104 pays.

1 Singapore 1.73

2 Iceland 1.66

3 Finland 1.62

4 Denmark 1.60

5 United States 1.58

6 Sweden 1.53

7 Hong Kong 1.39

8 Japan 1.35

9 Switzerland 1.30

10 Canada 1.27

11 Australia 1.23

12 United Kingdom 1.21

13 Norway 1.19

14 Germany 1.16

15 Taiwan 1.12

16 Netherlands 1.08

17 Luxembourg 1.04

18 Israel 1.02

19 Austria 1.01

20 France 0.96

21 New Zealand 0.95

22 Ireland 0.89

23 United Arab Emirates 0.84

24 Korea 0.81

25 Estonia 0.80

26 Belgium 0.74

27 Malaysia 0.69

28 Malta 0.50

29 Spain 0.43

30 Portugal 0.39

31 Tunisia 0.39

32 Slovenia 0.37

33 Bahrain 0.37

34 South Africa 0.33

35 Chile 0.29

36 Thailand 0.27

37 Cyprus 0.25

38 Hungary 0.24

39 India 0.23

40 Czech Republic 0.21

Partager cet article
Repost0