Cratt1

  • Uploaded by: amel
  • 0
  • 0
  • July 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Cratt1 as PDF for free.

More details

  • Words: 3,534
  • Pages: 7
Prévision des ventes des articles textiles confectionnés

B. Zitouni*, S. Msahli* * Unité de Recherches Textiles, Ksar-Hellal, Tunisie.

Résumé Dans cette étude, on se propose de déterminer si le recours à des réseaux de neurones permet d’améliorer la précision des prévisions des articles textiles réalisées à l’aide de la méthode du lissage exponentiel avec optimisation du coefficient de lissage. Les résultats ont montré qu’avec une base de données hétérogène, contenant des articles de différents types, le lissage exponentiel optimisé donne un meilleur résultat alors qu’avec des bases homogènes, la prévision par les réseaux de neurones est nettement plus précise. Cette précision pourrait indiquer la présence de ralations non linéaires entre les semaines de vente et dénote l’importance de l’étape de classification avant la prévision étant donné que la demande sur certains articles confectionnés est constante alors que sur d’autres elle est saisonnière et peut avoir une tendance vers la hausse ou la baisse. Mot clés : prévision, lissage exponentiel, réseaux de neurones, articles textiles Introduction Le secteur textile-habillement est considéré comme l’un des secteurs moteurs de l’économie tunisienne. Il occupe une position fortement stratégique vu l’importance de sa contribution en termes de croissance et d’emploi. Ce secteur qui vit des mutations profondes liées essentiellement au démantèlement progressif des arrangements multi-fibres (AMF) qui ont régi les échanges commerciaux pendant de longues années, reste de loin le premier secteur exportateur de l’industrie manufacturière tunisienne [1]. Dans cet environnement où la concurrence va devenir de plus en plus féroce, l’idéal pour une entreprise textile est de produire exactement les produits que ses clients vont acheter mais, sauf dans le cas très spécial où l’entreprise commence à fabriquer à partir de la réception de la commande du client, c’est impossible [2]. Ainsi, afin de prendre les décisions relatives à son bon fonctionnement et à sa pérennité, l’entreprise doit s’appuyer sur un système de prévision fiable. Un tel système permet d’aboutir à un avantage compétitif en minimisant les coûts de stockage, en évitant les ruptures et en minimisant les pertes financières dues au solde des articles invendus. La prévision des ventes est à la fois nécessaire et difficile. Elle est nécessaire car elle constitue le point de départ d’un grand nombre d’outils de gestion de l’entreprise : plannings de production, plans de financement, plans de marketing, plans de trésorerie, etc. [3]. Elle est difficile car il est hors de notre portée, quelle que soit la qualité des méthodes adoptées, de lire l’avenir avec certitude tant que les paramètres qui entrent en ligne de compte sont nombreux, complexes et souvent inquantifiables, dans quelque domaine que ce soit, et notamment celui du textile-habillement qui se distingue par son caractère instable et sa vulnérabilité à des perturbations de sources différentes (phénomène de mode, variations climatiques et économiques, événements sociaux, etc.). I. Les grandes approches de prévision Pour clarifier l’approche des multiples méthodes et techniques de prévision des ventes, plusieurs grandes classifications sont couramment employées : suivant le terme (méthodes à court, moyen, long

1

terme), le secteur d’activité (produits industriels, biens de consommation durables, biens de grande consommation, services, etc.), la technique utilisée (modélisation économetrique, décomposition, lissage exponentiel, Holt-Winters, Box-Jenkins, etc.), la nature des données et leur traitement (méthodes quantitatives, qualitatives), etc. R. Maricourt [3] a proposé une classification en deux approches : 1. Une approche passéiste, fondée sur l’analyse du passé et l’extrapolation de celui-ci dans le futur. Les méthodes de ce type, essentiellement quantitatives, peuvent elles-mêmes être subdivisées en deux grandes familles fondées sur des principes différents : a- Les méthodes endogènes ne travaillant que sur les données historiques directement reliées au phénomène traité ; b- Les méthodes exogènes qui ne se contentent pas, comme les précédentes, d’une seule variable causale, le temps, mais en procédant à une analyse systématique d’une ou plusieurs autres variables explicatives. 2. Une approche futuriste souvent qualitative plus directement branchée sur l’exploration du futur tout en intégrant des éléments disponibles de connaissance du passé. Les méthodes futuristes cherchent à se rapprocher au maximum des hommes qui sont en prise avec les ventes ; on les interroge, on simule leur comportement, on les intègre autant que possible dans l’élaboration des projections. Ces méthodes donnent également une importance aux modifications brusques dans l’environnement, de nature géo-politique (révolutions, guerres) ou technologiques (découvertes scientifiques, mise au point de nouveaux matériaux, etc.). II. Les méthodes adoptées dans notre étude La méthode du lissage exponentiel Si X(t) représente le volume des ventes d’un article quelconque, on peut établir une équation de régression statistique pour X(t). Mais cette régression ne peut être utilisée à des fins prévisionnels car il faut en premier lieu estimer les variables explicatives du modèle, un travail qui peut être plus difficile que l’estimation de X(t) elle-même [4]. De ce fait, les méthodes statistiques s’appuient plutôt sur l’analyse de séries chronologiques (appelées également séries temporelles ou chroniques) représentant des données relevées dans le passé. Ces données doivent être disponibles et de longueur suffisante, fiables et pertinentes. Historiquement, le lissage exponentiel est une méthode qui a profondément marqué les méthodes de prévision. La variante entièrement automatique de cette méthode ressemble étrangement à l’automatisation des réseaux neuronaux. En effet, les deux approches utilisent la même intégration de la dynamique de prévision, la même utilisation de la rétro-propagation des erreurs, la même recherche de l’automatisme absolu et le même pragmatisme en s’appuyant sur des données avec un excellent algorithme d’estimation [5]. L’idée de base du lissage exponentiel est de corriger l’ancienne prévision avec la dernière valeur connue. La formule fondamentale est la suivante :

X t +1 = X t + (1 − ) X t Avec

(1)

X t +1 : Prévision des ventes à la période t pour la période t+1 Xt : Volume réel des ventes à la période t

X t : Prévision des ventes à la période t-1 pour la période t.

2

Cette formule de récurrence peut être aisément déclinée selon deux optiques d’où les nouvelles formules relatives toujours au lissage constant : •

Exponentielle

X t +1 = X t + (1 − )X t -1 + (1 - ) 2 X t -2 + (1 − ) 3 X t -3 + ...

(2)

+∞

= ∑ (1 − ) i X t −i •

i =0

A récupération d’erreurs

X t +1 = X t + [X t − X t ] = Xt +

(3)

(t)]

La formule (2), dite exponentielle, permet de montrer que le lissage exponentiel est une somme pondérée des valeurs passées, avec une structure de coefficients de pondération décroissante exponentiellement dans le temps (d’où le nom de la méthode). La méthode du lissage exponentiel effectue donc une moyenne mobile pondérée où les coefficients affectés aux données passées sont reliés par une loi décroissante exponentielle. La formule (3), dite à récupération d’erreurs, montre que la méthode adapte la nouvelle prévision en fonction d’une fraction de l’erreur de prévision. Cette formule montre également que l’algorithme du lissage exponentiel rétro-propage la dernière erreur de prévision. Le choix d’une valeur pour la constante de lissage α est très important car il conditionne la prévision future à trvers le degré de pondération que l’on affecte au passé récent et au passé lointin. Diverses procédures d’optimisation de ce coefficient ont été établies ; la plus classique consiste à retenir une valeur de α qui minimise l’écart prévision-réalisation sur la partie connue de la chronique. Dans notre étude, nous avons utilisé un algorithme d’optimisation permettant de déterminer la valeur de α qui minimise la somme des carrées des erreurs de prévision : n

(

SCE = ∑ X i − X i i =1

)

2

(3)

Les réseaux de neurones Un réseau de neurones est un système de calcul composé d'éléments de traitement simples et fortement interconnectés qui traitent l'information par leur changement d'état dynamique en réponse à une entrée externe. Les réseaux de neurones sont organisés en couches ; ces couches se composent d'un certain nombre de neurones interconnectés qui contiennent une fonction d'activation. Des entrées sont présentées au réseau par l'intermédiaire de la couche d'entrée, qui les communique aux couches cachées où le traitement s'effectue en utilisant des connexions pondérées. Puis, les couches cachées transmettent la réponse à la couche de sortie [6]. Le réseau que nous avons implémenté sous « Matlab » est un perceptron multi-couches utilisant l’algorithme d’apprentissage connu sous le nom de rétro-propagation du gradient. La couche d’entrée contient 10 neurones alors que la couche de sortie ne contient qu’une seule puisque nous tentons à chaque fois de prévoir le volume des ventes à la 11ème semaine ( x11 ) connaissant les ventes des 10 semaines précédentes (x1…x10). La couche cachée contient 5 neurones (moyenne du nombre de neurones d'entrée et de sortie), plusieurs autres valeurs ont été testées mais celle-ci a donné le meilleur résultat (Figure 1).

3

X1

Wij : poids de la connexion entre les neurones j et i.

1 X2

11 . . . W1615

2 . . . X10

x11 16

15

10

Couche entrée

Couche cachée

Couche de sortie

Figure 1 : Architecture du réseau de neurones utilisé Algorithme de rétro-propagation du gradient Nous présentons ici les bases de cet algorithme d’apprentissage dans le cas général. L'objectif est d'approximer une fonction Y = f(X) où X et Y sont des vecteurs. •

Le vecteur d'entrée X est présenté à la couche d'entrée en assignant chaque valeur de X à un neurone. Ces entrées sont alors propagées par le réseau jusqu'à ce qu'elles atteignent la couche de sortie.



Pour chaque neurone, une activation ai est calculée selon la formule :

ai = F (∑ j O jWij )

où Oj est la sortie du neurone j de la couche précédente, Wij est le poids de la connexion du neurone j vers le neurone i, F est la fonction de transfert (ou fonction d'activation) du neurone i. •

Le vecteur de sortie que le réseau produit est comparé aux valeurs de sortie attendues. Une erreur E est calculée de la manière suivante :

E = ∑i (Oi − Ti ) 2

où Oi est la valeur de sortie du neurone i de la couche de sortie Ti est la ième valeur cible de sortie. •

Si la valeur de l'erreur n'est pas proche de 0, les poids des connecxions doivent être changés pour réduire cette erreur. Chaque poids est soit augmenté soit réduit en rétro-propageant l'erreur calculée. La formule mathématique utilisée par cet algorithme est connue sous le nom de Règle Delta :

∆Wij = ηδ i O j où ∆Wij est la variation du poids Wij η est le taux d'apprentissage (fixé par l'utilisateur) δi est l'erreur sur la sortie du neurone i d'une couche. Le calcul dépend du type de neurone. Si le neurone est un neurone de sortie, alors l'erreur est :

δ i = F ' (ai )(Ti − Oi ) sinon (neurone caché),

δ i = F ' ( ai ) S k δ kWik où les neurones k appartiennent à la couche suivant celle du neurone i.

4



L'algorithme est répété pour chaque couple d'entrée/sortie et plusieurs passes sont effectuées jusqu'à ce que l'erreur soit descendue en dessous d'un seuil acceptable ou qu'un nombre maximal de passes soit atteint [6].

III. Etude expérimentale A partir d’une base de données d’un magasin d’articles de sport qui contient l’historique des ventes de 60 articles pendant 52 semaines, nous avons utilisé une procédure de randomisation pour constituer 3 bases de données contenant chacune les ventes de 30 articles pendant 10 semaines : -

La première base de données contient des articles mélangés (gym, piscine), La deuxième contient uniquement des articles de piscine, La troisième contient uniquement des articles de gym.

Pour chaque base de données, nous avons utilisé une procédure de randomisation pour former un échantillon base de taille 20 qui a servi pour la recherche de la valeur optimale du coefficient de lissage et l’apprentissage du réseau de neurones. Les 10 articles restants constituent l’échantillon test qui a servi pour la validation des deux modèles obtenus. Pour évaluer la performance des deux méthodes de prévision, nous avons estimé à chaque fois le volume des ventes à la 11ème semaine ( x11 ) connaissant les ventes des 10 semaines précédentes (x1…x10). Ces prévisions ont été ensuite comparées aux valeurs réelles (x11). •

1ère base de données (articles de piscine + articles de gym)

Appliqué à l’échantillon base qui contient 20 articles, l’algorithme d’optimisation du coefficient du lissage a donné αopt = 0.999. Ceci montre que les ventes de la 11ème semaine dépendent essentiellement de celles réalisées à la 10ème semaine. L’influence des autres semaines est très faible. Ce même échantillon base a servi pour l’apprentissage du réseau de neurones. Les résultats de la simulation des deux méthodes sur l’échantillon test sont reportés sur le tableau 1. Tableau 1 : comparaison des deux méthodes sur le premier échantillon test Num article 1 2 3 4 5 6 7 8 9 10

Historique des ventes x1

x2

50 60 135 130 21 16 384 384 0 0 0 0 0 0 453 358 60 29 0 0 Somme

x3 85 90 16 299 0 0 0 257 25 0 des

x4

x5

x6

x7

x8

X9

110 152 152 101 79 73 90 90 90 85 62 37 18 20 21 21 21 10 284 232 230 230 134 93 0 8 9 12 12 11 0 3 6 6 5 5 0 0 0 7 7 6 198 171 168 148 95 88 21 17 21 28 28 21 0 5 5 5 4 4 carrés des écarts (SCE)-

x10 x11 66 37 9 93 11 5 2 60 15 9

40 37 6 97 10 8 2 50 12 9

Prévision par lissage exponentiel 2 (x11 - x11 ) x11

Prévision par Réseau de neurones 2 (x11- x11 ) x11

66.01 676.36 37.00 0.00 9.00 9.01 93.00 16.00 11.00 1.00 5.00 9.00 2.00 0.00 60.03 100.56 15.01 9.04 9.00 0.00 820.97

54.81 219.33 37.42 0.18 11.55 30.83 70.07 725.42 15.36 28.76 7.73 0.07 5.48 12.10 59.00 80.92 14.88 8.31 12.58 12.84 1118.75

D’après le tableau 1, on constate que la méthode du lissage exponentiel a donné un résultat meilleur que celui du réseau de neurones (somme des carrés des écarts plus faible). Ceci peut être attribué d’une part à la valeur optimale de la constante de lissage qui a amélioré la performance du modèle et d’autre part à la différence de comportement des articles de piscine et de gym constituant la base de données. En effet, la demande sur les articles de piscine est saisonnière alors que celle des articles de gym est quasiment uniforme sur toute l’année (figures 2 et 3).

5

600 Volume des ventes

Volume des ventes

100 80 60 40 20

500 400 300 200 100

0

0

1

6

11 16 21 26 31 36 41 46 51

1

Temps (semaine)

6

11 16 21 26 31 36 41 46 51 Temps (semaine)

Figure 2 : Comportement d’un article de gym (juste au corps pour enfant)

Figure 3 : Comportement d’un article de piscine (maillot de bain pour enfant)

Pour évaluer l’influence de l’homogénéité de la base de données sur la précision des prévisions, nous avons expérimenté les mêmes procédures de prévision sur les deux autres bases de données contenant uniquement des articles de piscine ou de gym. •

2ème base de données (articles de piscine : maillots de bain + shorts)

Appliqué à l’échantillon base, l’algorithme d’optimisation du coefficient du lissage a une deuxième fois donné αopt = 0.999 ce qui veut dire qu’a priori la valeur optimale de ce coefficient ne dépend pas de la cohérence des données de la base. Les résultats de la simulation des deux méthodes sur l’échantillon test de la 2ème base de données sont reportés sur le tableau 2. Tableau 2 : comparaison des deux méthodes sur le deuxième échantillon test Num article 1 2 3 4 5 6 7 8 9 10

Historique des ventes x1

x2

131 125 46 26 30 30 13 8 72 63 453 358 132 0 0 0 0 0 0 0 Somme

x3 109 26 26 8 61 257 0 0 0 0 des

x4

x5

x6

x7

x8

x9

102 102 102 75 43 28 27 29 27 29 27 15 34 29 33 29 17 10 15 15 12 9 6 6 63 69 76 76 20 13 198 171 168 148 95 88 0 0 0 0 0 0 0 0 0 0 0 0 0 8 9 12 12 11 0 5 5 5 4 4 carrés des écarts (SCE)-

x10 x11 28 9 12 6 13 60 0 0 11 9

27 9 7 6 22 50 0 0 10 9

Prévision par lissage exponentiel 2 (x11 - x11 ) x11

Prévision par Réseau de neurones 2 (x11- x11 ) x11

28.00 1.00 9.01 0.00 12.00 24.98 6.00 0.00 13.00 81.00 60.03 100.56 0.00 0.00 0.00 0.00 11.00 1.00 9.00 0.00 208.54

32.90 34.77 3.77 27.35 9.28 5.20 4.14 3.45 28.63 43.91 57.24 52.37 0.00 0.00 0.79 0.62 12.12 4.51 12.92 15.40 187.57

D’après le tableau 2, on constate que la somme des carrés des écarts du réseau de neurones est inférieure de 10% à celle du lissage exponentiel optimisé. Ceci dénote l’existence de relations non linéaires entre les ventes des différentes semaines d’une part et l’importance de la phase de classification pour la prévision d’autre part. •

3ème base de données (articles de gym : cyclistes + collants + justes au corps)

Appliqué à l’échantillon base, l’algorithme d’optimisation du coefficient de lissage a une troisième fois donné αopt = 0.999. Ceci confirme que x11 ≈ x10 quelque soit le degré d’homogénéité de la base de données.

6

Après apprentissage du réseau de neurones sur le même échantillon base, une simulation a été lancée sur l’échantillon test. Les principaux résultats expérimentaux des deux méthodes appliquées au même échantillon test sont reportés sur le tableau 3. Tableau 3 : comparaison des deux méthodes sur le troisième échantillon test Num article 1 2 3 4 5 6 7 8 9 10

Historique des ventes x1

x2

14 24 74 76 0 0 41 46 40 67 46 63 0 0 0 0 60 29 41 46 Somme

x3 28 138 0 46 82 76 0 0 25 46 des

x4

x5

x6

X7

x8

x9

46 47 89 89 77 48 181 200 181 175 153 120 0 0 0 0 0 0 43 37 33 33 31 24 107 121 121 121 104 71 134 184 184 160 124 74 0 0 0 0 0 0 0 0 0 0 0 0 21 17 21 28 28 21 43 37 33 33 31 24 carrés des écarts (SCE)-

x10 x11 30 118 0 19 37 57 0 0 15 19

15 120 0 17 27 47 0 0 12 17

Prévision par lissage exponentiel 2 (x11 - x11 ) x11 30.02 225.54 118.00 3.99 0.00 0.00 19.01 4.02 37.03 100.68 57.02 100.34 0.00 0.00 0.00 0.00 15.01 9.04 19.01 4.02 447.63

Prévision par Réseau de neurones 2 (x11- x11 ) x11 23.00 63.95 121.39 1.94 0.00 0.00 19.06 4.23 32.44 29.62 50.08 9.47 0.00 0.00 0.00 0.00 15.26 10.65 19.06 4.23 124.09

D’après le tableau 3, on constate que la somme des carrés des écarts du réseau de neurones est inférieure de 70% à celle du lissage exponentiel optimisé. Cette amélioration de la précision confirme les résultats obtenus avec la deuxième base de données concernant la performance des réseaux de neurones pour la prévision des ventes dans le cas d’une base de données homogène. Conclusions et perspectives Cette étude nous a permis de conclure que la méthode du lissage exponentiel qui a fait ses preuves depuis plus de 50 ans peut donner une meilleure prévision que les réseaux de neurones une fois le coefficient de lissage est optimisé et même s’il s’agit d’une base de données hétérogène. Après classification des articles selon leur utilisation, les réseaux de neurones ont donné une prévision plus précise que le lissage exponentiel optimisé vu la capacité d’apprentisssage et de généralisation de ces modèles. En plus, les réseaux de neurones acceptent des données incomplètes, incertaines ou bruitées. Ils présentent donc une grande robustesse face aux défaillances techniques, et s'enrichissent de leurs expériences. Cette étude peut être enrichie par l’étude et l’expérimentation de diverses techniques de classification tel que l’analyse discriminante ou la logique floue. Les résultats de cette étape peuvent servir à la prévision par diverses techniques (lissage exponentiel, Box-Jenkens, réseaux de neurones, modèles NARMA, etc.). Références bibliographiques [1] : Gherzi Organisation, étude stratégique du secteur textile-habillement, document CETTEX, Tunisie 1998. [2] : A. Courtois, C.M. Bonnefous, M. Pillet, Gestion de production, Les éditions d’organisation 1999. [3] : R. de Maricourt, la prévision des ventes, Presses universitaires de France 1995. [4] : R. S. Pindyck, D. L. Rubinfeld, Economic models and economic forcasts, McGraw-Hill, 1987. [5] : B. Burtshy, Séries chronologiques : Les outils du statisticien, les besoins du prévisionniste, 1997. [6] : F. Chiari, M. Delhom, J.B. Filippi et J.F. Santucci : prédiction du comportement hydrologique d’un bassin versant à l’aide de réseaux de neurones, Université de Corse, 2000.

7

Related Documents

Cratt1
July 2020 21

More Documents from "amel"

Bab Ii Manhum.docx
November 2019 25
Jesus Will Return
November 2019 29
November 2019 42
Cratt1
July 2020 21