Med-Hycos - les Données

Le Projet

Les Activités

Les Données

Les Logiciels

 


La Méditerranée

L'Histoire de l'Eau

Climat, Météorologie

La mer Méditerranée

L'eau douce

 


Base de connaissance

Recherche

Base de données

Pays

 


   ACCUEIL


Contact

LES CENTRALES D'ACQUISITION DE DONNEES

L'acquisition de données est présente aujourd'hui dans tous les domaines et par là même les appareils d'acquisition de données sont présents en masse sur le marché.

Il faut donc réussir à définir ses besoins pour pouvoir acquérir le bon matériel, celui qui conviendra le mieux à ce que vous voulez, ce que vous pouvez et ce que vous espèrerez.

Le propos ici est d'arriver à donner à tous une vue générale sur les l'existant, les possibilités, et l'évolution de l'acquisition de données dans le domaine de l'environnement.

Ce document n'a aucune prétention à donner un savoir technique exhaustif dans un domaine où la production et les solutions technologiques sont très diversifiées.

Durant les deux dernières décennies, il y a eu une évolution considérable dans les méthodologies d'observation du milieu environnant. La connaissance exacte d'un milieu est le support de toute action de prévision fine et chaque risque potentiel de nuisance doit être assorti d'un ensemble d'observations et de contrôles. L'observation de l'environnement est devenue très contraignante et doit s'intéresser simultanément aux variations dans l'espace et dans le temps.

Depuis 1980, la diminution des coûts des composants de la microélectronique a fait apparaître sur le marché un grand nombre de centrales d'acquisition de données. Toutefois l'absence de normes et d'offres de service a souvent laissé les utilisateurs devant des difficultés incontournables.

Les prix aujourd'hui s'échelonnent de 5000 FF à plusieurs millions de francs, le haut de gamme étant occupé par le matériel océanographique.

Les systèmes d'acquisition de données présents sur le marché remplissent quatre fonctions :

- télémesure

- téléalarme

- télécommande

- asservissement
 
 

La chaîne de mesure résulte de la mise bout à bout d'un certain nombre de savoirs et de techniques ne se recouvrant pas.

Au départ se trouve le capteur chargé d'effectuer la mesure : son choix pour être adapté à une mesure représentant le phénomène à observer n'est pas toujours évident. Il existe souvent pour un même paramètre plusieurs technologies de mesure.

Le capteur émet un signal de faible énergie et sensible aux parasites. sauf dans les cas où le capteur lui-même est associé à un préamplificateur, le signal émis par le capteur doit subir un premier traitement avec amplification dans les dix premiers mètres. Ce rôle est dévolu au transmetteur. Certains transmetteurs peuvent être posés tels quels sur le terrain, la plupart d'entres eux nécessitent un coffret de protection pour leur mise en place.

En sortie du transmetteur le signal portant la mesure peut être transféré sur plusieurs centaines de mètres jusqu'à l'abri dans lequel se trouve la centrale d'acquisition de données. Cette centrale gère les capteurs, la prise des mesures et leur stockage.

Enfin les données peuvent être transmises sur de très longue distance vers l'utilisateur par l'utilisation de moyens de transmission et de liaison qui peuvent être totalement différents.

Dans le même abri se trouve en général la centrale d'acquisition, les moyens de transmission ainsi que les moyens en énergie qui sont un paramètre important à prendre en compte lors du choix d'un matériel d'acquisition.
 
 

Les centrales peuvent être classées en fonction de leur vocation d'origine souvent liée à la spécialité du fabricant :

- Les centrales HYDRO : elles sont en général bien adaptées aux mesures de terrain, avec une bonne autonomie et un faible encombrement. Elles offrent la plupart du temps un nombre limité de voies (en entrée et en sortie), avec un choix limité de signal capteur.

- Les centrales SCIENTIFIQUES : présentent au contraire un grand nombre d'entrée possible et des calculs internes parfois intéressants.

- Les centrales INDUSTRIELLES : sont souvent lourdes et peu autonomes. Elles offrent par contre la plupart du temps de nombreuses sorties (alarmes, signaux analogiques) permettant d'asservir facilement des dispositifs annexes.

- Les centrales METEO : sont en général fortement spécialisées, en raison de la complexité des capteurs associées. Certaines sont mêmes strictement dédiées à cette application.

- Les centrales D'ASSAINISSEMENT

- Les centrales AGRO : présentent des similitudes avec les stations météo, en plus léger. Elles sont parfois exclusivement Météo ou dédiées au calcul du bilan hydrique.

1- LES STATIONS D'ACQUISITION DE DONNEES ENVIRONNEMENTALES
 
 

Il s'agit généralement de centrales hydro-agro-météo qui ont la particularité d'être autonomes en énergie et en mémoire. La différence entre ces trois domaines est le type et le nombre de capteur ainsi que les traitements associés aux données.

Il est parfois intéressant de connaître les spécificités de centrales différentes du domaine dans lequel on travaille et dans lesquelles on peut trouver des réponses que l'on se pose pour des difficultés particulières.

Par exemple des capteurs développés par l'INRA pour des applications agro mais qui sont tout à fait adaptés à certains aspects hydrologiques.

Ce type de centrale n'utilise en général que des capteurs quantitatifs et donc en cas d'utilisation de capteurs qualitatifs il est plus intéressant de s'informer du coté des centrales d'assainissement. Le problème reste cependant celui de l'adaptation de matériel spécifiques.

On peut trouver sur le marché des transmetteurs qui associés à de la mémoire peuvent être présentés comme de petites centrales d'acquisition de données mono capteur et qui peuvent être utile pour l'enregistrement d'une mesure précise durant un temps défini relativement court dans un lieu isolé.

Un transmetteur reçoit le signal électrique en provenance du capteur et le restitue vers l'utilisateur toujours sous la forme d'un signal électrique mais dont la valeur correspond à une valeur du phénomène que l'on mesure. Le rôle du transmetteur est l'alimentation des capteurs, la linéarisation des signaux, la préamplification, l'étalonnage et il peut afficher les valeurs mesurées.

Le transmetteur conditionne donc le signal et le convertit en signal normalisé.
 
 

La liste ci-dessous donne une idée non exhaustive des critères à prendre en compte avant de choisir une centrale :

- Possibilité du paramétrage (nombre de capteur, signal délivré, traitements spéciaux des données) : Les fonctions de traitement remplies par les interfaces des capteurs et l'unité centrale englobent toute une série d'opérations sur les données :

- filtrage des données brutes

- linéarisation et mise à l'échelle

- contrôle de la qualité des mesures

- conversion des mesures en unité météorologiques

- sélection des valeurs extrêmes

- calcul des moyennes, des totaux...

- chiffrement des résultats dans un code de transmission normalisé.

La station possède son propre programme de test et vérifie en permanence son fonctionnement, celui des capteurs et la tension batterie.

La précision de l'étalonnage conditionne en grande partie la qualité des mesures.

Il y a l'étalonnage constructeur sur lequel on ne peut agir mais certaines centrales permettent un étalonnage automatique de certains capteurs qui consiste le plus souvent au réglage du zéro (Offset) et au choix de l'amplitude de l'échelle de mesure (Gain)

- Type d'installation (mesure temporaire, réseau pérenne).

Pour les installations de courte durée, privilégier un matériel compact, bien protégé d'origine et ne nécessitant pas de boîtier de protection supplémentaire ou de câblages multiples (préférer les centrales présentant des connecteurs étanches à celles munies de borniers à vis et presse-étoupe)

Les raccordements peuvent s'effectuer soit avec des fiches, soit sur des borniers.

Quand il y a beaucoup de fiches sur un appareillage, il est nécessaire qu'elles soient munies de détrompeur afin d'éviter les erreurs de branchement.

Sur les borniers, les fils sont branchés directement comme sur un tableau électrique. Les borniers sont souvent sources d'erreurs lors des branchements effectués sur le terrain, alors que l'attention est sollicitée pour d'autres observations.

Bon nombre de centrales ont des borniers de raccordements internes. Il faut alors ouvrir l'appareil, et mettre à l'air libre son électronique pour en assurer le branchement et l'opération peut s'avérer désastreuse.

Le plus souvent la fixation du matériel sur un support s'effectue par un vissage ou boulonnage depuis l'intérieur du boîtier supportant l'électronique. Peu de marques offrent une fixation strictement externe.

Le choix du terminal de dialogue (micro terminaux et interfaces opérateur panneaux de contrôle & clavier ou PC portable) pour l'initialisation et le contrôle de la bonne marche de la station (saisie de données, paramétrage de la station, interrogation de la mémoire ou des capteurs, entrée de données extérieures) dépend de ce que l'on désire; comme il s'agit d'un appareil de terrain, on veillera à ce qu'il soit protégé contre les chocs et étanche.

- alimentation autonome :

L'alimentation se fait de 3 façons : soit par le secteur, soit par batterie, soit par panneau solaire.

L'alimentation par batterie limite les câblages mais oblige à s'orienter vers des capteurs alimentaires en 12 volts. L'alimentation 12V réduit les protections anti-foudre. Elle semble plus économique et facilite le transport de l'ensemble de la chaîne de télémesure d'un site à un autre. Les panneaux solaires ne nécessitent pas les nombreux changements de recharge exigés pour les batteries; ils sont la meilleure solution pour les alimentations à faible énergie.

La durée d'autonomie énergétique de la station a une influence directe sur la fréquence des tournées de terrain. Les faibles consommation impliquent l'emploi de technologies adaptées (CMOS, 3,3V) ainsi que d'un système intelligent de mise en veille de l'unité d'acquisition des mesures et de déclenchement de la mesure.

- conditions climatiques d'utilisation :

Il faut bien s'assurer que les caractéristiques du matériel utilisé correspondent bien aux contraintes qui lui seront imposées (surtout en zone aride et de montagne).

- le degré de protection de l'enveloppe de la centrale : coffret tout temps avec abri préfabriqué ou bâtiment en dur.

- la qualité des cartes électroniques (tropicalisation)

- les risques de foudre : la protection anti-foudre est indispensable surtout lorsque la transmission se fait par ligne téléphonique : réalisation d'un réseau de terre et d'un parafoudre, mise à la terre de toutes les masses, installation de dispositifs de protection contre les surtensions comme les éclateurs à gaz qui rétablissent le courant après la surtension.

Si la protection galvanique des équipements est insuffisante le rapport signal/bruit peut devenir bas, d'où la nécessité d'une protection contre les phénomènes de courants parasites. Lorsque le trajet du câble est court, les risques de parasitage sont faibles et pour les longues distances, les équipements choisis sont conçus pour un transport du signal de haut niveau. Les risques sont alors minimaux. Pour les distances intermédiaires les risques sont plus importants car toutes les précautions ne seront peut être pas respectées.

Il est indispensable quel que soit le niveau du signal, d'utiliser au moins des câbles blindés (reliés à la terre à une extrémité). Les câbles de série PTT sont bien adaptés.

- fonctionnement en gamme de température étendue -20° à +60° C.

  • - autonomie souhaitée en capacité mémoire et alimentation
- utilisation de signaux en sortie (alarme, asservissement d'appareillage)

- protection contre le vandalisme.

- degré de spécialisation de l'opérateur de terrain (système à cartouche de mémoire interchangeable)

- nécessité et type d'une télétransmission.
 
 

- existence d'un logiciel convivial

Il ne faudrait jamais acheter sans avoir réalisé une programmation de la centrale soi-même.

La programmation résidente peut être figée à la fabrication ou être modifiable ou paramétrable par l'utilisateur, même à distance.

Les logiciels d'exploitation des centrales doivent rester simples et conviviaux. Tout logiciel devrait être "ouvert" donc modifiable.

On peut noter qu'il existe dans ce domaine un foisonnement de protocoles d'échanges de données et une absence de normes.

Pour la gestion de réseaux importants, il est intelligent de prévoir l'investissement d'un logiciel permettant le traitement de toute la chaîne de mesure :

- paramétrage de la station

- gestion de la télétransmission

- acquisition et collecte des données

- stockage dans une base de donnée

- traitement automatique des données

- mise à disposition

- facilité d'exploitation des données :

Compatibilité des formats de sortie avec les logiciels de traitement aval, existence de passerelle, etc.

De même le choix des mémoires et leur technologie peut être un élément important pour le choix d'une station.

L'accès au contenu des mémoires pour l'utilisation peut être réalisé de différentes façons :

- Les mémoires enfichables sur l'appareil sont enlevées et emportées pour être vidées dans un centre spécialisé.

- Les mémoires sont vidées sur place et leur contenu transféré dans un ordinateur portable.

- Le contenu des mémoires est transféré vers l'extérieur, soit à l'initiative d'un logiciel résidant soit sur demande extérieure par le réseau de transmission.

  • technologie matérielle et logicielle utilisée :
Quand un évènement survient, il doit être daté. La datation dépend du mode de dépouillement des données. On peut avoir une datation relative ou absolue. La datation absolue consiste à noter le nombre de secondes depuis la mise en route de l’appareil, tandis que la datation absolue (ou calendaire) relève simplement une date sous la forme an, mois, jour, heure, minute et seconde en heure universelle ou locale selon la configuration.

La valeur d'une mesure associée à sa date occupe une certaine place mémoire; on peut stocker de différentes manières pour réduire l'espace mémoire:

- L'acquisition et la mémorisation se font à pas de temps constant (réglable par l'utilisateur). Il faut noter que cette méthode du point de vue de la mesure mémorisée en préserve la justesse, la fidélité et la sensibilité cependant on peut se retrouver avec une grande quantité de donnée inintéressante.

La datation n'est nécessaire que pour le premier échantillon.

- le stockage différentielle : la mesure n'est considérée comme significative et donc stockée que s'il y a une différence (donnée par l'utilisateur lors de la programmation de la centrale) avec la mesure antérieure. L'acquisition et la mémorisation se font à pas de temps constant et seulement lorsque la valeur à mesurer dépasse un niveau au delà duquel l'évènement est jugé intéressant. Cette méthode impose la datation des mesures et modifie la sensibilité de la chaîne de mesure.

Les différents modes de stockage actuellement les plus utilisés sont :

- L'enregistrement graphique peut être fidèle mais le traitement de la donnée par la suite impose des contraintes fastidieuses.

- la disquette est pratique, bon marché et réutilisable de nombreuses fois mais elles ne résistent pas aux conditions climatiques et restent fragiles.

- les mémoires RAM peuvent être écrites un nombre infini de fois mais elles nécessitent une batterie de sauvegarde qui en cas de défaut peut entraîner la perte d'informations sur plusieurs mois.

- Les mémoires EEPROM ont les mêmes avantages que les RAM et ne nécessitent pas d'alimentation. Cependant leur coût est plus élevé.

Méthode de datation

La mesure du temps peut se faire par de nombreuses façons :

- par défilement d'un papier portant la mesure

- par un mouvement d'horlogerie à ressort.

- par horlogerie électronique ,soit par un générateur de fréquence (la stabilité varie en fonction de la qualité des composants et de l'alimentation électrique) soit par un quartz dont la stabilité est garantie.

- par programmation en utilisant la fréquence de fonctionnement du microprocesseur qui n'est pas très stable sur de longues durées. (mn/jour)

La stabilité des horloges dépend beaucoup de la technologie utilisée et donc du prix...

- homogénéité du parc de matériel (réduction du stock de pièces détachées, interchangeabilité, meilleure maîtrise par les opérateurs).

- références du fabricant, capacité de développement. Ce sont des garanties de bon fonctionnement et de maintient au plus haut niveau ainsi que de suivi du matériel et de la pérennité du service après-vente. Les matériels développés en partenariat entre fabricants et utilisateurs doivent être particulièrement recherchés.
 
 
 
 

L'implantation et la conception des stations doivent être faites en tenant compte de contraintes qui sont de trois ordres :

- contraintes méthodologiques :objectifs, organisations.

- contraintes techniques : choix du lieu d'implantation, fiabilité des appareils, maintenance.

- contraintes financières : investissement, fonctionnement, maintenance, formation...

En fonction de ces contraintes, un choix peut être défini parmi les différents appareils existants sur le marché.

2- LES SYSTEMES D'ACQUISITION BASES SUR LA TECHNOLOGIE PC :

Il existe peu d'utilisation de ce type dans le domaine de l'environnement en général mais ce type de technologie existe et pourrait se développer dans l'avenir.

Les instruments classiques habituellement autonome ont des fonctionnalités définit par les constructeurs, l'utilisateur n'ayant aucun moyen de les modifier.

La tendance actuelle qui veut que les ordinateurs servent de moteur à l'instrumentation a donné naissance à des instruments virtuels s'appuyant sur l'architecture des PC. Ils bénéficient de l'évolution constante des PC et des possibilités offertes par les moyens logiciels. De plus les cartes d'acquisition de données et les cartes d'interfaces sont connectées à un bus standard.

Le logiciel a le rôle clef du système qui est orienté application et l'utilisateur définit lui-même la fonctionnalité (ouverte et versatile) de ses instruments.

Il existe 4 classes de matériels qui peuvent être mélangées dans un seul système en fonction de ses contraintes, ses avantages et ses inconvénients :

- Le GPIB (ou HP-IB): norme IEEE 488

Les instruments GPIB représentent le standard des systèmes de test et de mesure.

Il est conçu pour le contrôle à distance des instruments programmables (jusqu'à 14).

Câble cylindrique flexible; 2m par appareil jusqu'à 20m.

Protocole parallèle 8 bits et jeu de commande ASCII

Vitesse de transfert sup à 1 Mo/s

- L'acquisition de données par cartes ("Plug-In")

Il s'agit là d'une alternative à l'instrumentation pour de faible coût et des performances moyennes.

Les instruments sur cartes sont enfichables directement dans le PC avec des transferts directs des données sur mémoire PC. Il en existe aussi au format PCMCIA.

Les capteurs sont reliés à la carte soit directement soit via des modules de conditionnement du signal. Une carte combine souvent des entrées/sorties analogiques, des entrées/sorties numériques et des canaux de comptage. Ces cartes sont moins coûteuses et plus souples que les instruments autonomes.

Les conditionneurs de signaux se placent entre les cartes d'acquisition et les capteurs et sont destinés à isoler votre PC de l'environnement et à adapter les signaux.
 
 

- Le protocole série et industriel :

La plupart des instruments dits série utilisent de simples protocoles ASCII moins sophistiqués mais utile pour des distances supérieures à IEEE488 (jusqu'à 1km pour la RS-485).

Les réseaux industriels offrent des capacités multipoints.

-VXI bus :

Il s'agit d'un standard mondial d'instrumentation sur carte introduit en 1987 pour des instruments sophistiqués haute performance avec composants modulaires et conditionnement durci pour l'industrie.

Le logiciel dans tous ces cas représente la fondation du système. Il existe différents niveaux de logiciels : du logiciel driver conçu pour contrôler une interface matérielle spécifique au logiciel d'application destiné au développement de systèmes complets. C'est la qualité et la souplesse du logiciel qui vont déterminer la qualité et la facilité d'utilisation du système dans son ensemble.

3- LES ENREGISTREURS GRAPHIQUES

Le tracé sur papier garde quelques avantages : simplicité, enregistrement continu et de façon paradoxale les mesures qu'il est nécessaire de stocker pendant plusieurs années seront plus sûrement relues si elles sont enregistrées sur papier et conservées dans de bonnes conditions que si elles sont mémorisées sur support informatique qui, vu les évolutions constantes dans ce domaine peuvent rapidement devenir inexploitables.

Les enregistreurs graphiques profitent aussi des évolutions technologiques et informatiques. Un enregistreur ne se borne plus simplement à reproduire immuablement les variations de signaux issus des capteurs qui lui sont connectés. De nombreux enregistreurs disposent d'une grande variété de mode de déclenchement : sur niveau, fenêtre, sur entrée logique, sur minuterie, sur front montant ou descendant, sur combinaisons logiques entre différentes entrées et proposent des fonctions mathématiques permettant de tracer directement le résultat d'opérations sur une ou plusieurs voies. Les enregistreurs comportent une ou plusieurs alarmes (changement de pente, dépassement de seuil...) qui peuvent générer différentes actions et la commande de relais de sorties. Par ailleurs la possibilité de stocker les acquisitions ou les configurations de mesures sur disquettes ou carte mémoire dans un lecteur intégré à l'enregistreur n'est plus réservé aux appareils haut de gamme. Et la plupart des appareils sont équipés d'une ou plusieurs interfaces de communication (IEEE, RS232, RS422...) autorisant ainsi le transfert de données vers une unité de contrôle éloignée ou la configuration à distance de l'enregistreur.

Ils sont cependant de moins en moins utilisés en environnement et servent plus au contrôle de processus industriel, des essais en laboratoire ou lors du dépannage et la maintenance de certaines installations.

4- CONSTITUTION D’UNE CENTRALE D’ACQUISITION
 
 

L’électronique d’une centrale peut être subdivisée en cinq sous ensembles :

· L’interfaçage avec l’extérieur.

· L’horloge.

· L’unité de contrôle.

· La mémoire de stockage.

· L’alimentation électrique.

1. L’interfaçage avec le monde extérieur.

Cette partie électronique est destinée à faire la liaison entre les divers capteurs ou systèmes de communication et la partie contrôle et calcul des données. En effet, pour que la centrale puisse communiquer avec l’extérieur, il est impératif qu’elle interprète correctement les signaux issus des capteurs et qu’elle envoie des signaux pouvant être compris par des dispositifs étrangers au système.

Les capteurs produisent rarement des signaux directement compatibles avec la centrale et un traitement doit être effectué afin de convertir les faibles voltages, les résistances, les capacités ou les fermetures de contacts vers des nivaux électriques corrects.

Un convertisseur analogique/digital (CAN en français ou ADC en anglais) convertit les signaux analogiques issus des capteurs en signaux binaires compatibles avec l’unité de calcul de la centrale. Ces convertisseurs peuvent avoir une précision de 8, 10,12 ou 16 bits.

Le principe de la conversion analogique digitale est simple. Le temps est découpé en périodes de durée connue. La valeur du signal analogique est estimée à chaque période de temps. En sortie du convertisseur, on ne trouve donc pas un voltage mais une donnée indiquant la valeur de ce voltage.
 
 

Les capteurs générant des impulsions comme les pluviomètres à augets basculants ne nécessitent pas ce genre de circuit car l’unité de calcul est capable de comprendre ces signaux. Il faut toutefois les filtrer et les mettre en forme avant de les injecter dans l’unité de calcul car ces impulsions ne sont pas si " nettes " que ce que l’on pourrait croire.

Si l’on est en présence d’une centrale multi-capteurs, il ne serait pas rentable d’utiliser autant de convertisseurs que de capteurs. On utilise un multiplexeur qui est un dispositif permettant de scruter une voie parmi plusieurs. Un convertisseur unique peut donc traiter les signaux issus d’un capteur à un moment donné, puis traiter les signaux d’un autre capteur l’instant suivant. Le multiplexeur est commandé par l’unité de calcul qui choisit ainsi le capteur.
 
 

2. L’horloge.

Tous les circuits électroniques digitaux nécessitent pour fonctionner d’être cadencés. Cette fonction est assumée par le circuit d’horloge qui envoie à chaque circuit intégré, un train d’impulsions. Dans la majorité des cas, la puissance de calcul ainsi que la consommation électrique sont fonction de la fréquence d’horloge. Dans les centrales d’acquisition, cette fréquence est de l’ordre de 4 mégahertz (Mhz). Pour donner un ordre d’idée, les ordinateurs eux, fonctionnent à une fréquence comprise entre 8 et 66 Mhz.

Si l’on doit mesurer le temps avec précision, un circuit de gestion du temps réel similaire à une montre à quartz est utilisé en plus de l’horloge de cadencement. On emploie ce système car il est beaucoup plus précis que si le processeur devait calculer le temps (forte dérive au bout de quelques jours).
 
 
 
 

3. L’unité de contrôle.

Comme son nom l’indique, ce bloc électronique est chargé de contrôler toutes les fonctions de la centrale. C’est lui qui effectue les corrections et la mise en forme des données avant de les envoyer vers la mémoire de stockage. C’est aussi l’unité de contrôle qui détermine quel est le capteur à scruter, à quel moment et comment traiter la donnée.

L’unité de contrôle peut être considérée comme le cerveau de la centrale, d’ailleurs, il s’agit d’un vrai calculateur à base d’un microprocesseur tout comme un ordinateur de bureau, à la seule différence qu’il possède moins de ressources de stockage et plus de ressources de communication. La plupart des microprocesseurs utilisés sont capables de " s’endormir " en attendant un évènement qui les réveillera.

4. La mémoire de stockage.

Les signaux traités par l’unité de contrôle sont stockés dans une zone de mémoire. On peut avoir de la mémoire fixe, c’est à dire faisant partie intégrante de la centrale, ou bien de la mémoire amovible et interchangeable. La technologie employée dépend du constructeur.

Les circuits utilisés peuvent être de type :

· RAM (Random Access Memory) statique sauvegardée par piles. Il faut savoir que ce type de mémoire perd ses données lors d’un défaut de l’alimentation électrique de sauvegarde. On n’utilisera cette famille que si l’on n’enregistre pas de données vitales ou bien lorsque la période de stockage est courte.

· EPROM (Erasable Programmable Read Only Memory): cette famille ne nécessite pas d’alimentation de sauvegarde mais requiers une tension assez élevée (21V) lors d’un accès en écriture, et d’une source de rayons ultra-violets pour effacer les données.

· EEPROM (Electrically Erasable Read Only Memory): possède les mêmes qualités que les EPROM mais se contente d’une tension de 5V pour l’écriture, la lecture et l’effacement des données.

· RAM-Flash : cette nouvelle technologie est comparable aux EEPROM. Ce type de mémoire est souvent proposé sous la forme de carte au format carte bancaire au standard PCMCIA (Personal Computer Memory Card International Association). Ce format d’encapsulage est assez fragile mécaniquement.

Il existe plusieurs sortes de gestion de l’espace mémoire : · La stratégie de mémoire séquentielle. Les données sont écrites dans l’ordre chronologique de leur apparition. Lorsque l’espace mémoire est saturé, il n’est plus possible de stocker de nouvelles données ce qui implique la perte des dernières valeurs.

· La stratégie de pile mémoire. Les données sont écrites dans l’ordre chronologique mais quand la mémoire est pleine, on décale toutes les données d’un cran, effaçant la plus ancienne tout en enregistrant la nouvelle en fin de mémoire.

· La stratégie de la mémoire tournante. Les données sont toujours écrites dans l’ordre chronologique mais lorsque l’espace mémoire est saturé, on continue à écrire en repartant au début de la zone mémoire écrasant ainsi les données les plus anciennes.

Les fonctions des centrales électroniques sont programmées par un opérateur à l’aide d’un ordinateur portable ou d’un terminal de terrain. Cela implique qu’une petite partie de la mémoire est utilisée pour stocker les paramètres de fonctionnement.

5. L’alimentation électrique.

Dans la grande majorité des cas, le site d’installation de la centrale d’acquisition impose d’avoir une alimentation électrique autonome. On utilise donc un ensemble panneau solaire, régulateur et batterie.

5- LES BATTERIES ou ACCUMULATEURS

1- Principe.

Lorsque l'on place deux lames de métaux différents dans une solution électrolytique, on remarque qu'il existe une différence de potentiel entre ces deux plaques ou électrodes.

On vient ainsi de constituer une pile. Au fur et à mesure de l'utilisation de cette pile, celle-ci vieillit et sa résistance interne croît jusqu'à ne plus permettre une intensité suffisante pour l'utilisation. Mais sa différence de potentiel ou force electro motrice (fem) en circuit-ouvert restera stable. Cette dégradation de sa résistance interne est irréversible (par exemple une pile de 1,5 V peut voir sa résistance interne passée de 0,3 Ohms à 2 Ohms).

Une pile est donc un dispositif capable de convertir une énergie chimique en énergie électrique contrairement à une batterie qui ne fait que la stocker.

2- Les différents types.

Trois principaux types d'accumulateurs sont disponibles sur le marché:

1. Les batteries au plomb ouvertes.

Les batteries au plomb ouvertes fournissent de l'électricité à partir d'électrolyte liquide contrairement au plomb étanche qui contiennent de l'électrolyte gélifié..

Parmi les batteries au plomb il faut distinguer celles avec ou sans entretien.

Les batteries au plomb sans entretien:

Ce sont celles qui ont de l'électrolyte mais qui ne nécessite pas d'apport régulier.

Le prix par Wh est faible.

Mais elles ont une faible durée de vie et leur expédition par avion est impossible.

Les batteries au plomb avec entretien:

Il s'agit de batteries où l'électrolyte liquide doit être complété régulièrement.

Elles ont une durée de vie importante et existe en très grande dimensions.

Le prix par Wh est moyen.

L'expédition par avion est possible ( les batteries sont livrées sèches avec électrolyte à part )

Elle nécessite une recharge périodique de l'électrolyte (1 à 2 fois par an).

Parmi celles-ci, il faut éliminer la plupart des batteries pour automobiles. Celles ci sont conçues pour fournir un courant très important au démarreur pendant un temps très court, alors que les batteries pour systèmes solaires doivent fournir un courant très faible pendant un temps très long; leur conception interne est donc différente.

2. Les batteries au plomb étanches.

Elles sont fabriquées à partir d'électrolyte gélifié et ne nécessite donc pas d'entretien.

Elles acceptent de très fortes décharges et leur expédition et leur emploi sont très faciles puisqu'il n'y a pas de liquide actif.

Leur prix par Wh est assez élevé.

Les avantages essentiels de la technologie plomb pour le photovoltaïque sont :

La longévité, un bon rapport qualité/prix, un entretien faible ou nul, une bonne tenues aux températures extrèmes mais il faut éviter une décharge profonde et surcharges et maintenir les batteries chargées quand on les stocke.

3. Les batteries au cadmium-nickel.

Elles sont parfois appelées improprement piles rechargeables.

Elles ne sont pas utilisées pour des systèmes de grande taille car leur rendement énergétique de charge-décharge est nettement inférieur à ceux des accumulateurs au plomb de qualité.

Cependant leur gros avantage est d'exister dans les mêmes formats que les piles standard et de pouvoir les remplacer aisément. La capacité d'un accu Cd-Ni est pratiquement celle d'une pile du même type dans sa version la moins performante mais sa résistance interne est par contre bien inférieure à celle des piles les meilleures.

On est donc amené à utiliser ces accumulateurs pour de petits systèmes devant s'adapter à des appareils existants à piles.

Remarques: Il existe d'autres accumulateurs moins utilisés que les précédents: ce sont les accumulateurs au lithium et les supercapacités.

Les accumulateurs au lithium sont dérivés des piles lithium. De technologies récentes ces accus supportent mal les cycles charges-décharges et présentent aujourd’hui plus d’inconvénients que d’avantages pour le photovoltaïque.

Les batteries fonctionnent sur le principe de l'oxydoréduction aux électrodes.

Dans les capacités électrochimiques, une tension extérieure provoque l'accumulation de charges électriques à la surface de contact de la capacité.

Les super capacités associent des réactions d'oxydoréduction et des phénomènes capacitifs.

Contrairement à ce qui se dit, les piles courantes peuvent être rechargées après chaque utilisation ce qui peut améliorer leur durée de vie. Mais les chargeurs du commerce ne leur conviennent pas et il est vrai que n'étant pas prévues pour cela on peut les détériorer définitivement.

Du point de vue du rendement, le prix du kWh fourni par une batterie est compris entre 2000 et 50000 fois celui que fournit Electricité De France.
 
 

3- Quelques détails techniques. La capacité d'un accumulateur représente la quantité d'énergie qu'il peut stocker sous une tension donnée. Par exemple, un accumulateur pouvant restituer 10 A pendant dix heures aurait une capacité de 100 Ah; si sa tension nominale est de 12 V, cela représente 1200 Wh.

La capacité est donc le produit de l'intensité de décharge par le temps de décharge. Le temps de décharge est limité par la diminution de la tension de décharge jusqu'à une valeur minimale appelée tension de fin de décharge.

La capacité nominale est donnée selon les usages internationaux pour différents types de batteries ou en fonction de l'utilisation, le plus souvent pour 10 ou 20 heures. La capacité nominale C10 est la valeur obtenue en ampères-heures lors d'une décharge continue et ininterrompue de 10 heures jusqu'à la tension de fin de décharge.

Dans l'exemple précédent nous aurions C10 = 100 Ah.

De même, nous avons l'intensité nominale I10 = 10 A.

Le comportement de la capacité de la batterie varie énormément en fonction de la température d'utilisation. Il convient d'éviter les températures extrêmes.

La recharge d'une batterie peut lui être nuisible si le courant qui lui est alors fourni n'est pas conforme à la technologie correspondant à cette batterie.

Une batterie complètement chargée possède en circuit ouvert une certaine tension appelé tension de repos, variant légèrement en fonction de la température ambiante. La recharge d'une batterie n'est physiquement possible qu'en l'alimentant par une source de tension de charge supérieure à la valeur de tension de repos, provoquant un courant de charge dépendant de l'importance de l'écart de tension et de la résistance interne du circuit.

Il existe aussi deux types de charge: La charge en cyclage permanente et la charge en marche flottante.

Une application en cyclage implique un cycle c'est à dire une décharge suivi d'une recharge de la batterie, journellement ou hebdomadairement.

Une application en marche flottante (floating) implique que la batterie soit maintenue en charge, permanente mais faible.
 
 

Les cycles de charge-décharge (décharge suivie d'une recharge) sont un facteur important pour les batteries. Ces cycles sont différents selon le taux de décharge imposé aux batteries ( il y a décharge importante lorsque cela correspond à plus de 30 % de la capacité nominale). En générale plus la décharge est importante et moins la batterie pourra supporter de cycles. Pour une utilisation parfaite, il y a lieu de respecter un seuil de tension d'arrêt défini selon l'autonomie fixée.Un accumulateur bien régulé autorise plus de 1000 cycles de charge-décharge.

Les décharges profondes accidentelles ont des conséquences non négligeables pour la durée de vie des accumulateurs et une détérioration prématurée de la batterie ( électrolyte n'est plus que de l'eau ou sulfatation des plaques maximale).
 
 

L’usage a longtemps voulu que l’on recharge les accumulateurs selon la règle du dixième, c’est à dire en leur appliquant un courant égal au dixème de la capacité horaire de l’accumulateur. Une telle charge est dite à C/10 ou 0,1 C.

Même si ce régime est idéal pour la longévité des accumulateurs et pour le rendement de charge, les accumulateurs mmodernes sont capables de supporter des recharges sous des courants considérablement plus intenses, ou considérablement plus faibles.

En général, une opération de charge est d’autant plus efficace et inoffensive pour la durée de vie de l’accumulateur qu’elle dure plus longtemps sous un courant faible.

Le phénomène de charge d’un accumulateur par un photogénérateur s’apparente le plus souvent à une charge à tension constante qu’à une charge à courant constant. Les manuels des constructeurs font bien la distinction entre ces deux modes dans la description des comportements de batteries.

Il existe deux types de régulation pour les accumulateurs:

Le limiteur de charge: il évite de surcharger la batterie en arrêtant la charge dès que la tension de l'accumulateur dépasse un certain seuil.

Le régulateur: il met les batteries en charge permanente mais faible (floating) quand elles ont atteint le seuil de tension maximum et coupe en fin de décharge pour éviter les décharges profondes.

Pour un accumulateur au plomb de 12 V, les seuils typiques sont les suivants:

Fin de charge = 14,1 V

Floating = 13,2 V

Fin de décharge = 11,25 V

Le rendement d'un accumulateur est le rapport entre la quantité d'énergie qu'il restitue lors du "déstockage" et la quantité d'énergie qui lui avait été fournie pour être stockée.

Trois facteurs influent sur ce rendement en utilisation réelle:

Le rendement faradique qui est le rapport entre le courant fourni lors de la charge et le courant restitué lors de la décharge.

Le rendement en tension qui est le rapport entre la tension effective de décharge et la tension de charge.

L'auto-décharge qui represente l'énergie électrique perdue par un accumulateur au repos.
 
 

4- Accumulateur NICKEL-CADMIUM. On peut classer les accumulateurs Cd-Ni en deux catégories:

- Les modèles à électrodes frittées, généralement cylindriques, de capacité allant d'environ 100 mAh à 10Ah.

- Les modèles à électrodes comprimées (ou compactes) de format bouton, de capacité allant de 10 mAh à 1 Ah.

Tous les accumulateurs Ni-Cd utilisent le même couple électrochimique, lequel fournit une force électromotrice proche de 1.2 Volts à température ambiante. Cette tension reste constante pendant environ 90 % de la période de décharge de l'accumulateur puis la tension chute assez rapidement au voisinage de la décharge complète de l'accumulateur.

Le courant maximum admissible, pour les accumulateurs Ni-Cd cylindriques, exprimé en fonction de la capacité C de l'accumulateur sur une durée de 1 heure, varie de C/10 à C/3 environ.

Les accumulateurs Cd-Ni exigent des précautions de charge, laquelle charge doit s'effectuer à courant si possible constant et limité en valeur supérieure.

Ils peuvent subir des surcharges permanentes dans certaines limites et de nombreuses décharges profondes et sont en général livrées déchargées.

L'autoconsommation des accumulateurs cylindriques est relativement élevée, de l'ordre de 1% par jour de la capacité à température ambiante. Cette autodécharge augmente assez fortement avec la température : si on perd environ 40 % de la charge en 1 mois à 20°C, on perd 60 % à 30° C et 100 % à 50 °C.

Les accumulateurs Cd-Ni de type bouton sont plutôt destinés à des recharges moyennement rapides, voire lentes. Leur autodécharge est plus faible: perte de 40% de la charge en 6 mois à 20°C et de 60 % à 30 °C environ.

Ce type d'accumulateurs convient mieux aux applications photovoltaiques soumises à des éclairements variables à dominante faible (éclairage intérieur), les accumulateurs cylindriques étant plus adéquats pour des applications à fort régime (soleil).
 

5- Accumulateurs au PLOMB.

Chaque élément de la batterie au plomb a une tension nominale de 2 volts à température ambiante. Les éléments sont groupés en séries pour former des accumulateurs de 6, 12 ou 24 volts, pour des capacités allant de 40 Ah à plus de 1000 Ah.

Pour les applications solaires, il existe des gammes de batteries acceptant d'assez nombreux cycles charge-décharge relativement profonde: 1200 cycles à 30 % de décharge, 800 à 50 %, 350 à 80 %.

Leur taux d'autodécharge est voisin de 4 % par mois à température ambiante.

Une batterie au plomb classique déchargée (en dessous du C min) ne récupèrera plus sa charge. Elle peut perdre jusqu'à 90 % et plus de sa capacité.

Les batteries au plomb étanches ne sont utilisé que pour des applications ne nécessitant que de faibles capacités de stockage (2,5 Ah à 25 Ah) et susceptibles de décharges à 100 %.

En effet on peut avoir 280 cycles à 100 % de décharge, 1600 cycles à 25 %.

Ce type de batterie peut être chargé aussi bien à tension ou courant constant, en charge rapide ou en floating.

Une batterie sans entretien, en surcharge, au delà de sa capacité maximum sera définitivement endommagée. Elle peut même exploser si elle est étanche.
 
 

6- Précautions d’installation.

Il faut éviter tout court-circuit entre les bornes de polarités opposées car il peut y avoir un courant de court-circuit très élevé.

S'assurer que la robustesse du réceptacle de la batterie soit compatible avec son poids et qu'il y a une ventilation naturelle.

Les batteries doivent être stockées à l'abri de l'humidité et de la chaleur. De plus il convient d'éviter de stocker des batteries totalement déchargées pendant plus de 4 semaines. Le stockage sous charge complète ayant par nature des effets bénéfiques sur la durée de vie et la résistance aux cycles, il est recommandé de ne pas laisser l'autodécharge descendre en dessous de 50 %.

UN ACCUMULATEUR BIEN REGULE PERMET D'OBTENIR PLUS DE 1000 CYCLES DE CHARGE-DECHARGE.

CELA EST COMPATIBLE AVEC L'UTILISATION "SOLAIRE" PUISQUE DANS CE CAS IL N'Y A PAS DE DECHARGE IMPORTANTE.
 
 
 

Quand vous choisissez un appareil portable, vous vous intéressez bien sur à son autonomie. Vous portez ensuite votre attention sur le mode d'alimentation utilisé, par piles ou accumulateur Vous optez pour une des deux solutions et votre réflexion s'arrête là. Pourtant, la technologie des piles ou de l'accumulateur incorporés peuvent conditionner dans une large mesure l'usage que vous allez faire de votre appareil...

I1 y a quelques mois, Electronique International Hebdo consacrait un volumineux dossier aux accumulateurs. Nous vous en proposons ici un résumé. Aux yeux des électroniciens, l'accumulateur a souvent été considéré comme étant un mal nécessaire. Il arrive tout juste à se faire une place parmi les composants passifs. Et encore ! " L'accumulateur est plus un système chimique exploitable en électronique qu'un vrai composant ", peut-on lire dans l'introduction du dossier d'EICH. II est à peine remercié pour les services pourtant inestimables qu'il rend aux millions d'utilisateurs d'appareils portables.

Il n'en reste pas moins que l'accumulateur bénéfice de nombreuses innovations et que de nombreuses technologies sont en lice pour se partager un marché estimé à 82 milliards de francs l'an passé. On compte une demi-douzaine de technologies de base avec, pour plusieurs d'entre elles, de nombreuses variantes. Les performances affichées sont différentes et le choix d'une technologie plutôt qu'une autre ne peut plus se faire en s'en tenant à des critères aussi triviaux que la capacité, la tension, le poids et le prix.

En général, les accumulateurs vieillissent

plus mal que l'électronique à laquelle ils sont associés. Ainsi, la capacité de stockage annoncée a tendance à diminuer avec le temps. Rechargés au maximum, les "vieux" accumulateurs ont souvent une capacité moindre que celle des modèles neufs.

Ce phénomène devient aggravant en cas de mauvaise utilisation. C'est par exemple le cas lorsqu'un accumulateur au plomb subit une décharge complète. A l'inverse, pour un accumulateur NiCd, la pleine capacité ne peut être restituée que si celui-ci a été complètement déchargé avant d'être rechargé. Par ailleurs, la façon dont s'effectue la décharge peut avoir une grosse incidence sur la capacité et la durée de vie de l'accumulateur, et ceci quelle que soit la technologie utilisée.

Lorsqu'un appareil portable auto-alimenté n'est pas utilisé pendant une période assez longue, il ne faut pas oublier son accumulateur pour autant ! En effet, certains accumulateurs se déchargent même s'ils ne sont pas sollicités (phénomène d'autodécharge). Les modèles NiCd sont dans ce cas. Si l'appareil qu'ils alimentent doit être toujours prêt à fonctionner, l'accu doit être maintenu "en charge" en permanence (cf. les appareils électroménagers maintenus sur leur socle). Pendant ce temps, la facture EDF augmente... Si, au contraire, l'appareil ne doit pas être disponible en permanence, il y a une solution : c'est de décharger complètement son accumulateur au NiCd. Ce type d'accu se conserve en effet mieux lorsqu'il est déchargé. Pour d'autres, ceux au plomb par exemple, c'est l'inverse : pour les conserver en bon état, il vaut mieux qu'ils restent chargés en permanence.

Enfin, il ne faut jamais perdre de vue qu'un accu est un élément chimique qui peut nécessiter de l'entretien (niveau d'acide dans les accus au plomb) et qui peut se révéler dangereux dans des situations extrêmes : projection d'acide sulfurique pour un accu au plomb que l'on casse, risque d'explosion d'un accu au lithium mis dans le feu. Les problèmes de pollution sont également à considérer.

Des technologies complémentaires

Dans son enquête, EIH passe ensuite en revue les différentes technologies d'accumulateurs. En valeur, les accumulateurs au plomb détiennent à eux seuls 75 % du marché. Mais ils ne sont pas utilisables dans les appareils portables. Qu'on se rassure, les solutions ne manquent pas, la technologie évolue rapidement et les années qui viennent pourraient même voir une redistribution des cartes. Les modèles au lithimn-ion semblent les plus prometteurs. Accumulateurs au plomb. Ils équipent les voitures et sont très largement utilisés dans les alimentations de secours et la traction par contact. Dans ces applications, leur capacité élevée et leur aptitude à pouvoir tirer des courants élevés constituent de solides atouts. Leur poids et leur encombrement ne sont pas franchement un inconvénient. La technologie est relativement stabilisée. Des progrès ont permis d'allonger leur durée de vie. Les modèles "plomb sec" à électrolyte gélifié ou rigidifié nécessitent moins d'entretien et facilitent l'utilisation. Pour bien se conserver, un accu au plomb doit être maintenu chargé. Au-delà de 30 % de décharge, il se dégrade vite. Accumulateurs Ni-Cd. Les accumulateurs au nickel-cadmium (Ni-Cd) sont utilisés un peu partout, notamment les alimentations de secours, le ferroviaire et l'aéronautique, et bien sûr les appareils portables. Leur technologie est bien maîtrisée (ils sont apparus au début des années 50). Ils sont faciles à utiliser mais ils sont sujets à une auto-décharge élevée et leur densité d'énergie est limitée. De plus, ils ont un effet mémoire : pour ne pas perdre de capacité ils nécessitent une décharge complète avant recharge.

Accumulateurs au Ni-MH :

Beaucoup plus récente, la technologie nickel-métal-hydrur présente l'intérêt d'un gain de 30 % en énergie massique sur les modèles Ni-Cd. De nombreuses recherches sont en cours, laissant présager des améliorations sensibles. Accumulateurs au lithium. Ils utilisent une technologie relativement récente (début des années 70), qui réserve de bonnes perspectives d'évolution. Leur densité massique d'énergie peut être jusqu'a 50 % plus élevée que celle des accumulateurs Ni-MH : elle atteint une valeur théorique de 800 Wh/kg, 10 fois plus qu'un modèle au nickel, par exemple. Le nombre de cycles de charge et de décharge est le plus élevé de tous. Les accumulateurs au lithium sont en train de prendre des parts de marchés, notamment au détriment des modèles nickel-cadmium et nickel hydrure. Les accumulateurs au lithium constituent une famille nombreuse. L'élément le plus récent, et forcément le plus prometteur, a été baptisé °lithium ion". Ce type d'accumulateur lancé en 1993 par Sony est désormais proposé par la plupart des fabricants japonais d'accumulateurs. De plus en plus de constructeurs d'appareils audio vidéo, d'ordinateurs et de téléphones portables l'ont adopté. Dans ces applications, le gain en poids et encombrement constitue un argument décisif en faveur de l'accumulateur lithium ion, reléguant au second plan la majoration de prix liée à cette technologie. Le nombre de cycles de charge et décharge atteint 1 200, avec une perte de capacité qui ne dépasse pas 10 %. A côté de cet avantage, il y a le revers de la médaille : il faut compter une bonne heure pour recharger un accumulateur au lithium ion, soit deux à quatre fois plus qu'un accu NiCd.

Les produits lithium ion actuellement disponibles sur le marché utilisent des couples LiC/LiCoOz. Mais le cobalt est cher. D'autres oxydes métalliques de lithium peuvent être utilisés tels que le LiNiO2 adopté par Saft ou le LiMnO2 actuellement à l'étude. Compte tenu que le manganèse est deux fois moins cher que le nickel et quatre fois moins cher que le cobalt, la technologie lithium ion a donc de bonnes perspectives en matière de réduction de prix.

L'accumulateur zinc air:

La société américaine AER Energy s'est impliquée dans cette technologie, visant notamment le marché des ordinateurs portables à grande autonomie. La densité d'énergie atteint 170 Wh/kg, contre 110 Wh/kg en moyenne pour les accus Li Ion. AER Energy estime pouvoir atteindre des prix 4 fois inférieurs à ceux des accumulateurs au lithium : cette différence s'explique par la nature des matériaux utilisés (le zinc est moins onéreux que le lithium) et un procédé de fabrication plus simple. L'auto-décharge est faible et comparable à celle de la technologie Li Ion. A côté de ces avantages, les accumulateurs zinc air souffrent d'un gros handicap : le nombre de cycles de charge décharge, dans le cas d'une décharge complète, est limité à environ 40. En cas de décharge partielle à 25 %, on "monte" à 100 cycles. Mais on reste loin des 1 200 cycles du lithium.

Les piles rechargeables:

Le canadien BTI et le suisse Leclanché viennent de sortir de telles piles. Cette technologie présente certains avantages : leur auto-décharge est à peine de 0,5 % par mois contre près de 30 % pour l'accumulateur nickel/cadmium. Contrairement à ces derniers, il n'y a pas non plus d'effet mémoire (donc pas besoin de décharge complète). Un autre facteur doit être pris en considération : le nombre de cycles de charge et décharge. Il est limité entre 10 et 40 pour le modèle Boomerang de Leclanché, contre 500 pour un modèle NiCd. BTI atteint un meilleur chiffre que LecLanché (de 100 à 500), mais c'est au détriment de la capacité.

Reste à savoir l'usage que l'on fera de telles piles. Ceux qui utilisent déjà des accumulateurs, avec éventuellement un bloc chargeur externe, ne dérogeront pas à leurs habitudes. Quant à ceux qui utilisent des piles classiques, il ne sera sans doute pas facile de leur faire perdre leur réflexe de jeter les piles usagées.

Des chargeurs très "étudiés". Les utilisateurs d'instruments portables fonctionnant sur accu n'ont pas à se préoccuper des conditions de charge de leur accu. Le chargeur incorporé se charge de tout. Ici aussi, les techniques ont pas mal évolué. Les chargeurs adaptent en permanence le courant de charge en fonction de l'évolution de la tension et de la température de l'accumulateur. Ce dernier est ainsi chargé dans des conditions optimales et les risques de détériorations dues à une charge trop rapide sont éliminés.

6- LES PANNEAUX SOLAIRES

Les cellules solaires produisent directement de l'électricité à partir de l'énergie solaire reçue et ceci sans qu'il y ait d'éléments mécaniques mobiles.

L'élément de base de tout système solaire photovoltaique (qui produit de l'énergie électrique à partir de photon) est la cellule solaire ou photopile.

1- PRINCIPE DE FONCTIONNEMENT D'UNE PHOTOPILE.

L'effet photoélectrique

Les photopiles sont fabriquées à partir d'un semi-conducteur , en général du silicium.

Un semi-conducteur a une résistivité telle qu'il se situe entre le conducteur et l'isolant.

En général les semi-conducteurs sont dopés en charges électriques pour qu'ils laissent passer le courant sous certaines conditions .

Ici les photons (particules de lumière ) émis par la lumière sont absorbés par le semi-conducteur et l'énergie de ces photons libère des électrons qui sont canalisés dans le semi-conducteur créeant ainsi un courant électrique.

Le courant généré par la cellule est proportionnel à l'intensité lumineuse.

La tension d'une cellule est limitée par la résistance intrinsèque du matériau et de l'effet diode de ce matériau.

Le courant fourni est continu sous une faible tension ( 0,4 à 0,6 V en général ).

On appelle module solaire un ensemble de cellules déposées sur un support et protégées des agents atmosphériques.

2- CARACTERISTIQUES ELECTRIQUES . L'énergie disponible aux bornes de la cellule varie selon le type de rayonnement, la quantité d'énergie reçue, la surface de la cellule et les conditions ambiantes.

1.Rendement. ( Figure 1 & 2)

Le rayonnement solaire s'étend de l'ultraviolet (0,4 microns de longueur d'onde) à l'infrarouge (0,7 microns), l'oeil n'étant sensible qu'aux longeurs d'onde comprises entre ces deux valeurs.

On appelle réponse spectrale d'une cellule solaire, l'efficacité avec laquelle elle utilise une longueur d'onde donnée et transforme son énergie en électricité.

Le rendement d'une photopile est le rapport entre l'énergie électrique fournit et l'énergie solaire reçue. Le rendement théorique d'une cellule solaire au silicium est de 22 %. Dans la pratique ce rendement se situe entre 10 % et 15 %.

La réponse spectrale dépend en grande partie du matériau utilisé. Par exemple les cellules à l'arséniure de Gallium présentent des rendements plus élevés ( en théorie 26 %) mais leur réalisation est plus délicate.

2.Courbes caractéristiques.

· Tension-Courant (Figure 3 & 4) La courbe caractéristique d'une cellule solaire représente la variation du courant fourni en fonction de la tension.

La tension en circuit ouvert est caractéristique de la jonction électronique donc de la fabrication. En général, elle ne varie presque pas avec l'intensité lumineuse au moins pour des éclairements supérieurs à 100 W/m2 ( journée très couverte).

Le courant de court-circuit est par contre directement proportionnel à l'énergie solaire reçue, donc à la surface de la photopile et à l'éclairement.

Pour une cellule solaire idéale, la puissance maximale correspondrait donc à la tension en circuit ouvert multiplié par le courant de court-circuit. En réalité, la puissance maximale que peut fournir une cellule est inférieure à celle décrite auparavant.

On appelle facteur de forme le rapport entre la puissance maximale fournie réellement par la cellule et celle théorique. Ce facteur est de l'ordre de 70 %.

On peut expliquer cette limitation de puissance par les résistances dues au matériau : une résistance en parallèle et une résistance série. ( Voir schéma équivalent d'une cellule )

En général le constructeur donne le courant et la tension à puissance maximum.
 
 
 

· Température-Eclairement (Figure 5 & 6) Les caractéristiques standards sont mesurées à une température de 25° pour un éclairement de 1kW/m2 ( soleil à midi par temps clair ).

On remarque que le point de puissance maximale varie peu en tension alors que le courant est pratiquement proportionnel à l'énergie reçue.

Le comportement de la cellule est plus complexe en ce qui concerne la température.

Le courant augmente d'environ 0,025 mA/cm2/°C alors que la tension diminue de 2,2 mV/°C. La baisse globale de puissance est d'environ de 0,4 % /°C.

C'est pourquoi il faut être attentif au conditionnement des cellules solaires mais en général le peu d'épaisseur de résine ou de verre sur la face arrière des panneaux solaires ainsi que la transparence de sa face exposée en font un bon dissipateur thermique.

La puissance "catalogue" d'un module solaire correspond à la puissance crête c'est à dire la puissance donnée pour un éclairement de 1kW/m2 (midi en plein été), une température de 25°C et une répartition spectrale optimale.

En pratique, la puissance produite par un panneau solaire dans des conditions de fonctionnement réelles ne dépasse pas 85% de la puissance crête.

La puissance électrique devra être calculée en prenant en compte les conditions de fonctionnement : poussières, température, rayonnement solaire incident, puissance dissipée dans les cablages.

Le panneau solaire pourra être dans la plupart des cas orienté de façon à augmenter l'énergie reçue les mois où l'énergie est plus rare.

Il faut de toute façon surdimensionner son installation d'au moins un tiers pour éviter tout problème.
 
 

3- LE MODULE SOLAIRE.

Une cellule nue est peu utilisable : il faut l'encapsuler c'est à dire connecter les cellules entre elles, les protéger de l'environnement, et les rendre faciles à monter sur site. Le nombre de cellules que l'on connecte dépend évidemment de la tension d'utilisation (6, 12, 24 volts) mais aussi du mode de fonctionnement; par exemple les modules de 12 volts comportent de 32 à 36 cellules suivant la technologie utilisée et la température prévisible sur site.

Les cellules solaires les plus courantes peuvent être de deux technologies différentes :

· Au silicium amorphe pour des modules fournissant des puissances comprises entre 0,25 W et 40 W c'est à dire de petites installlations autonomes.

La réponse spectrale de ces cellules est plus importante que celles au silicium cristallin.

· Au silicium cristallin pour des modules devant fournir des puissances de plusieurs dizaines de Watt minimum et pour des installations plus couteuse en énergie.

La surface pour une même puissance est moins importante pour le silicium cristallin que pour le silicium amorphe.

Voici trois principaux type d'encapsulation à base de résine silicone : · l'encapsulation type "verre" pour des générateurs solaires fixes.

· l'encapsulation type "polyester" pour des générateurs solaires mobiles ou devant résister au choc.

· l'encapsulation type "aluminium" pour des générateurs solaires mobiles ou devant résister au choc.
 

Pour obtenir des puissances importantes, les modules doivent être associés en série-parallèle pour former des panneaux.

L'association série :

En série, les cellules délivrent le même courant mais peuvent fonctionner à des tensions différentes.

Si une cellule se trouve occultée (même partiellement) elle ne peut délivrer qu'un courant limité. Si le courant délivré par l'ensemble du module est supérieur à ce courant limité, cette cellule occultée va fonctionner en inverse c'est à dire qu'elle fonctionne comme un récepteur soumis à une tension inverse de celle produite en direct.

Cela va provoquer l'échauffement de la cellule ce qui est susceptible de la détruire par claquage comme une diode classique. La cellule devient alors un court-circuit ou un circuit ouvert.

L'association parallèle

En parallèle, les cellules délivrent la même tension.

Un module travaillera donc en récepteur si la tension de fonctionnement devient supérieure à sa tension de circuit ouvert.

Bien que la cellule puisse dissiper un courant important, il est préférable de disposer d'une diode anti-retour. Tous les constructeurs n'en mettent pas. Il convient donc de le vérifier avant l'installation ou d'en mettre une systématiquement. Si possible, on peut choisir des diodes dont la chute de tension en directe est faible (diode Schottky).
 
 

4- INSTALLATION D'UN PANNEAU SOLAIRE.

Il faut éviter que les panneaux solaires reçoivent l'ombre portée par un obstacle adjacent ou qu'ils se fassent de l'ombre les uns les autres ( pensez aussi aux différentes périodes de l'année )

Il faut aussi faciliter la circulation d'air sous les modules de façon à diminuer autant que possible leur température (au moins 80 cm).

Le panneau solaire devra être orienté de façon à augmenter l'énergie reçue les mois où l'énergie est plus rare.

L'angle à donner aux panneaux dépend évidemment du lieu mais il faut essayer de ne pas les mettre horizontaux pour permettre une bonne convection naturelle et pour faciliter le nettoyage par les pluies et éviter de servir de support aux feuilles, poussières etc.

Le caractère intermittent de l'énergie solaire oblige souvent à recourir à un stockage.

Dans les applications les plus courantes l'énergie est stockée sous forme électrique dans une batterie.

Pour une consommation inférieure à 100 Wh/jour, le stockage peut être largement dimensionné et permettre d'absorber les chutes de production.

Pour des installations de puissance supérieure, un tel stockage serait trop important, il est donc souvent préférable d'augmenter la surface des photopiles et de réduire la capacité des batteries à un stockage de sécurité de quelques jours.

7- Stockage des données.

1- Bits, octets, codes et trames.

Les données sont représentées par des signaux électriques (ou impulsions) générés par des appareils électroniques digitaux comme les ordinateurs ou les centrales d'acquisition.

Chaque élément d'information est appelé bit (abréviation anglaise pour binary digit) et est représenté par une impulsion électrique pour la valeur 1 et pas d'impulsion pour la valeur 0. Tous les appareils digitaux (ou numériques en français) utilisent des séries d'impulsions ou de non impulsions pour travailler.

Chaque élément de ce signal est un bit.

Chaque élément de donnée est codé par groupes de huit bits appelés octets. Ces octets peuvent aussi être appelés mots dans la littérature technique. Les ordinateurs de type huit bits (type IBM PC) travaillent avec des mots de huit bits en parallèle, mais il existe aussi des ordinateurs qui travaillent en seize, trente deux voire soixante quatre bits en parallèle. Il va sans dire que plus on peut traiter de bits simultanément (en parallèle) plus la vitesse de traitement est rapide.

Lorsqu'un transfert est envisagé, une sorte de contrat doit être conclu entre l'émetteur et le récepteur. La vitesse de transmission fait l'objet de la première clause, faute de quoi, la communication est impossible. A l'intérieur d'un appareil digital, on peut s'offrir le luxe de multiplier les interconnexions entre éléments : elles sont courtes et relativement faciles à réaliser. Il est hors de question de multiplier le nombre de fils, dans les mêmes proportions, pour des liaisons à des distances importantes (supérieures à une dizaine de mètres). Outre le prix prohibitif, on s'aperçoit bien vite que cela ne sert pas à grand chose. En effet, des délais d'acheminement conséquants interviennent avec les grandes distances. Au lieu des quelques millionièmes de seconde qui sont un maximum dans une machine, les signaux vont mettre de cinq à dix millièmes de seconde pour traverser un pays à plus d'une demi seconde pour passer d'un continent à un autre via un satellite. Pour un appareil électronique, c'est énorme.

Un des avantages des fils multiples vient des dialogues (question/réponse), que les différents organes électroniques ont entre eux par des lignes auxiliaires en même temps que le transfert des données. Les fameux délais inhérents aux longues distances sont pour un tel usage absolument inadmissibles. Il faut donc faire autrement. Entre autres, on doit se contenter d'un seul canal pour, outre les données proprement dites, donner des tops de début et de fin (synchronisation sans laquelle la présence d'informations utiles ou les périodes d'attente ne seraient pas discernables). Pour ce faire, les deux partenaires devront convenir dans leur contrat, d'une trame, d'une certaine façon d'agencer dans le temps, les bits successivement transmis. Lors du transfert des données, on utilise certains bits à des fins particulières. Le bit le plus à gauche peut être utilisé pour calculer la parité de l'octet. Dans le cas d'un bit de parité paire, on regarde le nombre de bits à 1 de l'octet et si c'est un nombre pair le bit de parité est à 1. Dans le cas d'un bit de parité impaire, on regarde si le nombre de bits est impair. A la réception, on regarde ce bit de parité et selon son état on peut vérifier le nombre de bits à 1 et en déduire si la transmission est correcte. L'information est transmise caractère par caractère, le plus couramment, selon une grille de code normalisée qui représente l'alphabet (majuscules et minuscules), les chiffres, les signes de ponctuation, etc... Chaque caractère est composé d'une suite de bits, sept ou huit en règle générale, qui seront transmis et reçus séquentiellement, les uns après les autres. Ce code est le code ASCII (American Standard Code of Information Interchange). Chaque symbole est représenté par un octet (8 bits) ce qui donne 256 symboles possibles, mais à l'origine l'ASCII était codé sur 7 bits.
 


 
 

"A" peut être représenté par :

"3"...................................... :

Pour marquer le début d'un caractère, l'émetteur, le temps d'un bit, change l'état de la ligne. Ce changement est reconnu comme tel à la réception, les bits qui suivent étant interprétés comme la valeur d'un caractère par le récepteur. Enfin, au moins le temps d'un autre bit, l'émetteur rétablit l'état de repos de la ligne, de telle sorte qu'un nouveau début soit identifiable. On appelle souvent ces pseudos bits de début et de fin, respectivement bit de start et bit de stop.

Si tous les paramètres de la transmission sont bien définis, il faut aussi tenir compte des défaillances du canal de transmission. Sans faire un cours de physique, on conçoit très bien que la sensibilité d'une transmission au bruit (dans le sens de signaux parasites) croit avec la rapidité de celle-ci. Par exemple, lors d'une communication téléphonique, si votre interlocuteur parle très vite, un craquement sur la ligne suffit à occulter un mot de votre correspondant. De même, sur les supports les plus fiables que l'on connaisse, à savoir les fibres optiques où l'information est transmise sous forme de lumière, on n'évite cependant pas la perte d'information dûe à l'agitation des atomes à la température normale. Il est donc courant d'avoir entre un bit sur dix mille et un bit sur un million qui soit défaillant, et, ce qui est plus grave, de manière invisible. Ce qui est admissible dans la transmission de la voix, ne l'est absolument pas lors de la transmission de données.

De nombreux formats de trame ont été définis qui traduisent toujours les mêmes soucis : délimiter l'information (dans le temps), tout en permettant sa transparence, c'est à dire que le contenu des trames puisse être quelconque à priori. On s'est vite aperçu qu'il y avait intérêt à véhiculer les données, non pas une à une, mais groupées en paquets : suite de bits mieux à même de contenir le genre de messages que les machines digitales échangent normalement.

Pour améliorer la sécurité des transmissions, plusieurs procédés sont disponibles pour détecter la majorité des erreurs. Tous ces procédés s'inspirent en cette matière des traditionnelles totalisations par lesquelles les comptables protègent leurs documents contre telle ou telle erreur de transcription. Au début des années 70, la communauté informatique a défini la trame HDLC (High level Data Link Control) qui comporte en fin de trame un total dont le principe est beaucoup plus perfectionné (CRC pour Cyclic Redundancy Check), ajoutant seize bits de contrôle au message utile en utilisant un polynôme générateur connu à la fois de l'émetteur et du récepteur.

Table des codes ASCII

0
1
2
3
4
5
6
7
8
9
3
-
!
"
#
$
%
&
'
Hexa
1E
1F
20
21
22
23
24
25
26
27
4
(
)
*
+
,
-
.
/
0
1
Hexa
28
29
2A
2B
2C
2D
2E
2F
30
31
5
2
3
4
5
6
7
8
9
:
;
Hexa
32
33
34
35
36
37
38
39
3A
3B
6
<
=
>
?
@
A
B
C
D
E
Hexa
3C
3D
3E
3F
40
41
42
43
44
45
7
F
G
H
I
J
K
L
M
N
O
Hexa
46
47
48
49
4A
4B
4C
4D
4E
4F
8
P
Q
R
S
T
U
V
W
X
Y
Hexa
50
51
52
53
54
55
56
57
58
59
9
Z
[
\
]
^
_
`
a
b
c
Hexa
5A
5B
5C
5D
5E
5F
60
61
62
63
10
d
e
f
g
h
i
j
k
l
m
Hexa
64
65
66
67
68
69
6A
6B
6C
6D
11
n
o
p
q
r
s
t
u
v
w
Hexa
6E
6F
70
71
72
73
74
75
76
77
12
x
y
z
{
|
}
~


Hexa
78
79
7A
7B
7C
7D
7E
7F
80
81
13
‚
ƒ
„
…
†
‡
ˆ
‰
Š
‹
Hexa
82
83
84
85
86
87
88
89
8A
8B
14
Œ

Ž


‘
’
"
"
•
Hexa
8C
8D
8E
8F
90
91
92
93
94
95
15
–
—
˜
&trade;
š
›
œ

ž
Ÿ
Hexa
96
97
98
99
9A
9B
9C
9D
9E
9F
16
 
¡
¢
£
¤
¥
¦
§
¨
©
Hexa
A0
A1
A2
A3
A4
A5
A6
A7
A8
A9
17
ª
"
¬
­
®
¯
°
±
²
³
Hexa
AA
AB
AC
AD
AE
AF
B0
B1
B2
B3
18
´
µ
·
¸
¹
º
"
¼
½
Hexa
B4
B5
B6
B7
B8
B9
BA
BB
BC
BD
19
¾
¿
À
Á
Â
Ã
Ä
Å
Æ
Ç
Hexa
BE
BF
C0
C1
C2
C3
C4
C5
C6
C7
20
È
É
Ê
Ë
Ì
Í
Î
Ï
Ð
Ñ
Hexa
C8
C9
CA
CB
CC
CD
CE
CF
D0
D
21
Ò
Ó
Ô
Õ
Ö
×
Ø
Ù
Ú
Û
Hexa
D2
D3
D4
D5
D6
D7
D8
D9
DA
DB
22
Ü
Ý
Þ
ß
à
á
â
ã
ä
å
Hexa
DC
DD
DE
DF
E0
E1
E2
E3
E4
E5
23
æ
ç
è
é
ê
ë
ì
í
î
ï
Hexa
E6
E7
E8
E9
EA
EB
EC
ED
EE
EF
24
ð
ñ
ò
ó
ô
õ
ö
÷
ø
ù
Hexa
F0
F1
F2
F3
F4
F5
F6
F7
F8
F9
25
ú
û
ü
ý
þ
ÿ
Hexa
FA
FB
FC
FD
FE
FF
2- Les systèmes de numération L'objet de la numération est la représentation des nombres et la manière de manipuler ces représentations pour effectuer des opérations élémentaires du type additions, soustractions, multiplications etc...

Un système de numération est avant tout un système de représentation des nombres, c'est donc à ce titre un véritable langage, c'est à dire un système muni de symboles de base et de règles de construction.

Un exemple de système de numération bien connu est le système Romain.

Les symboles de base sont :

Symbole
Valeur
Symbole
Valeur
I
1
L
50
V
5
C
100
X
10
D
500
   
M
1000

Les règles de construction sont simples et connues de tous. Nous ne les exposerons pas ici.

Un concept important est la notion de valeur que l'on attribue à la représentation. Ainsi, les symboles suivants représentent-ils le même nombre: quatre, four, vier, 4, V (romain), |||| (batonnets). Vous remarquerez que nous utilisons implicitement le système décimal, car dès que l'on écrit la valeur d'un nombre, il est bien nécessaire de choisir un système de représentation. En occident, nous avons adopté le système de notation Arabe en base 10.
 
 

    1. Principes de conversion.

    2.  

       
       
       

      Conversion de base 10 en base b.

      Il existe deux méthodes pour convertir un entier N en base b.

      La première méthode consiste à déterminer les symboles de gauche à droite. Dans toutes les bases, on peut représenter la valeur en une suite de puissances entières de cette base.

      Par exemple, pour représenter la valeur 146 de notre base 10, il faut déterminer le nombre de fois ou 100 apparait dans 146, puis le nombre de 101, puis 102, etc...

      Le résultat donne :

      100 dans 146 = 6

      101 dans 146 = 4

      102 dans 146 = 1

      Le nombre 146 peut donc s'écrire : (1*102)+(4*101)+(6*100).
       
       

      Maintenant que cette représentation est connue, on peut s'en servir pour traduire une valeur en base 10 dans une autre base quelconque.

      Exemple : trouver la représentation de 92 en base 5.

      On a 52 < 92 < 53 donc 92=(3*52)+17.

      Puis 51 < 17 < 52 d'ou 17=(3*51)+2.

      On peut donc dire que 92 en base 10 s'écrit en base 5 :

      (3*52)+(3*51)+(2*50) = 332 .

      La deuxième méthode permet de trouver les symboles de droite à gauche et est dite "par divisions successives".

      Reprenons l'exemple précédent :

      On a :

      Ce qui donne : 332.

      Cette méthode est assez fastidieuse mais a l'avantage d'être simple.

    3. Le système binaire

    4.  

       
       
       

      Ce système de notation est en base 2 et seuls les chiffres 0 et 1 sont utilisés.

      Pour convertir notre valeur 92 en base 2 il faut décomposer 92 en puissances entières de 2 :

      (1*26) + (0*25) + (1*24) + (1*23) + (1*22) + (0*21) + (0*20) = 1011100

      Pour faire l'opération en sens inverse, c'est encore plus simple en utilisant la table suivante :
       
      Puissances de 2
      10
      9
      8
      7
      6
      5
      4
      3
      2
      1
      0
      Valeur décimale
      1024
      512
      256
      128
      64
      32
      16
      8
      4
      2
      1

      Soit la valeur 10101010 en binaire à convertir en base 10. On a :

      (1*27) + (0*26) + (1*25) + (0*24) + (1*23) + (0*22) + (1*21) + (0*20) =

      (128) + (0) + (32) + (0) +(8) + (0) + (2) + (0) = 170

    5. Le système hexadécimal
Il s'agit du système de notation en base 16. Ce système est trés utilisé en informatique car il permet une représentation plus "parlante" que le binaire tout en étant fondé lui aussi sur les puissances de 2.

Mais en base 16, il y a un problème : ce système nécessite seize symboles. On utilise donc les dix symboles du système décimal, plus les six premières lettres de notre alphabet :

{ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F }

On établit ainsi la table des valeurs :
 
Symbole
Valeur
Symbole
Valeur
Symbole
Valeur
Symbole
Valeur
0
0
4
4
8
8
C
12
1
1
5
5
9
9
D
13
2
2
6
6
A
10
E
14
3
3
7
7
B
11
F
15

Ainsi le nombre 2F5 en hexadécimal a pour valeur :

(2*162) + (15*161) + (5*160) = 757 en base 10.

La conversion de binaire en hexadécimal est facilitée par le fait que la base 16 n'est en fait qu'un binaire amélioré (d'où son utilisation en informatique).

Lorsque l'on doit transcrire de binaire en hexadécimal, il existe une astuce : il suffit de regrouper quatre bits pour avoir un symbole hexadécimal.

Par exemple :

Soit la valeur binaire 10101010101011 à convertir en base 16.

On prend les quatre bits le plus à droite 1011 et on les traduit directement en hexa, ce qui donne B pour le symbole des unités. Ensuite on continue avec les quatre bits suivant qui sont 1010, ce qui transcrit fait A et l'on continue jusqu'à ce que l'on ait épuisé le mot binaire. Si, comme dans ce cas, il reste moins de quatre bits à gauche à la fin de l'opération, on considère que les bits manquants sont des zéros. Ici on a 10, il faut donc imaginer que l'on a en fait 0010 ce qui donne 2 hexa.

Le résultat final donne 2AAB hexadécimal.

La conversion de base 16 en base 10 ne pose pas de problème dans le sens ou l'on utilise la formule habituelle.

Exemple :

La valeur précédente 2AAB en hexadécimal nous donne :

(2*163) + (10*162) + (10*161) + (11*160) =

(2*4096) + (10*256) + (10*16) + (11) =

(8192) + (2560) + (160) + (11) = 10923 en décimal.

Tableau de conversion entre décimal, hexadécimal et binaire

Décimal

..................................

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

....

31

32

....

255

256

....

511

512

....

1023

1024

....

2047

2048

....

4095

4096

....

8191

8192

....

65535

65536

....

Hexadécimal

..................................

0

1

2

3

4

5

6

7

8

9

A

B

C

D

E

F

10

11

....

1F

20

....

FF

100

....

1FF

200

....

3FF

400

....

7FF

800

....

FFF

1000

....

1FFF

2000

....

FFFF

10000

....

Binaire

..............................................

0

1

10

11

100

101

110

111

1000

1001

1010

1011

1100

1101

1110

1111

10000

10001

....

11111

100000

....

11111111

100000000

....

111111111

1000000000

....

1111111111

10000000000

....

11111111111

100000000000

....

111111111111

1000000000000

....

1111111111111

10000000000000

....

1111111111111111

10000000000000000

....