1Les
activités anthropiques exercent des pressions contribuant à une érosion
rapide de la biodiversité et affectant la capacité des écosystèmes à
fournir les biens et services dont nous dépendons (Millennium Ecosystem
Assessment, 2003 ; Cardinale et al., 2012). L’évaluation
des impacts anthropiques et de l’état de la biodiversité – définie comme
la variabilité biologique à l’échelle des gènes, des espèces et des
écosystèmes – et des services écosystémiques n’est cependant pas
triviale. En effet, les liens fonctionnels entre biodiversité et
services écosystémiques sont complexes et encore mal caractérisés (Mace,
Norris et Fitter, 2012) et les informations sur l’état biologique des
écosystèmes peuvent s’avérer insuffisantes pour comprendre et intégrer
dans les décisions les interactions entre fonctionnement des
écosystèmes, organisations sociales et systèmes économiques
(Laurila-Pant et al., 2015).
2Parmi
les trois grandes catégories d’approches évaluatives (biophysiques,
monétaires et basées sur des indicateurs composites) (Gasparatos et
Scolobig, 2012), les outils d’évaluation monétaire font l’objet d’une
demande sociale grandissante (Milanesi, 2010). Ceci peut être mis en
parallèle avec l’hypothèse selon laquelle l’érosion de la biodiversité
n’a pu être enrayée jusqu’ici parce que la société ne l’évalue pas à sa
juste valeur (Myers et Reichert, 1997 ; Milanesi, 2010 ;
Suarez et Corson, 2013). Le terme « valeur » est ambivalent et
prend des sens contrastés selon les acteurs et les disciplines (Guiral,
2013 ; IPBES, 2015). L’attrait qu’exerce l’évaluation monétaire,
comme modalité de qualification de la biodiversité, tient notamment au
fait qu’elle constitue une synthèse quantitative et unidimensionnelle
d’enjeux recoupant diverses échelles et dimensions socio-écologiques, et
ce en des termes familiers aux décideurs (KPMG, 2014 ; Sipkens et al., 2014). Certaines études économiques (Costanza et al.,
1997 ; Chevassus-au-Louis, Salles et Pujol, 2009 ;
Hoegh-Guldber, Beal et Chaudhry, 2015) ont ainsi eu de forts
retentissements tant dans la sphère scientifique qu’auprès des acteurs
publics et privés.
3Les
acteurs économiques et financiers affichent un intérêt croissant pour
les outils d’évaluation pour la biodiversité et les services
écosystémiques, et s’impliquent dans leur développement (Hanson et al.,
2009 ; PUMA, 2012 ; WBCSD, 2013). Ainsi, des organisations
telles que le World Business Council for Sustainable Development (WBCSD,
2011), des groupes spécialisés dans le conseil (PwC, 2013) mais aussi
des associations environnementales (IBAT, 2015) ou des institutions
académiques (Willis et al., 2012) proposent des outils à
destination des entreprises. L’attention que portent les entreprises à
ces nouveaux outils s’explique par différentes motivations. D’un point
de vue stratégique, les entreprises ont besoin d’outils pour mieux
appréhender la matérialité des enjeux liés à la biodiversité et aux
services écosystémiques, en termes d’impact et de dépendance. Cerner les
principaux risques à anticiper dans le cadre de leur devoir de
vigilance (due diligence en anglais) est critique pour limiter
les risques de réputation (Dempsey, 2013 ; WBCSD, 2013).
L’intégration de ces facteurs de risque par certaines institutions
financières laisse présager de possibles répercussions en termes d’accès
aux capitaux (Waage et Kester, 2015). De plus, les outils d’évaluation
pour la biodiversité et les services écosystémiques peuvent faciliter la
comparaison de différents scénarios et contribuer à améliorer
l’acceptabilité d’un projet (Dempsey, 2013). Cette évaluation peut aussi
être motivée par la volonté d’identifier des opportunités, de capter de
nouvelles sources de revenus, via notamment le développement
d’instruments de marché (paiements pour services écosystémiques, marchés
de compensation écologique) (WBCSD, 2013). D’autre part, les
entreprises ont aussi besoin d’outils managériaux pour encadrer la mise
en œuvre de leur politique biodiversité, suivre les progrès réalisés
(EpE, 2013). Enfin, les outils d’évaluation peuvent appuyer la
communication des entreprises auprès de leurs parties prenantes (EpE,
2013). Depuis 2002 et la loi sur les « Nouvelles Régulations
économiques », les sociétés françaises cotées en Bourse doivent
présenter, dans leur rapport du conseil d’administration ou du
directoire, des informations sur « les mesures prises pour préserver ou développer la biodiversité » (décret n° 2012-557). Il existe donc une demande pour des méthodologies standardisées.
4On
observe aujourd’hui un développement et une diversification importants
des outils d’évaluation pour la biodiversité et les services
écosystémiques (Thievent, 2015 ; Waage et Kester, 2015). Ces outils
peuvent avoir des implications variées en termes de représentation et
de gestion par l’entreprise de ses liens à la biodiversité et aux
services écosystémiques. Ceci soulève d’une part la question des
hypothèses sur lesquelles reposent ces outils, qui peuvent être
contestables scientifiquement ou socialement du fait du système de
valeurs sur lequel ils s’appuient, et d’autre part la question de leur
efficacité en termes de modification des représentations de
l’environnement et, in fine, d’une meilleure prise en compte des questions environnementales dans les décisions.
5Cet
article vise trois objectifs concomitants. Le premier est
d’expliciter certains partis pris qui découlent du choix, par une
entreprise, d’un outil d’évaluation pour la biodiversité et les services
écosystémiques. Le second objectif est de mettre en évidence
l’existence de tensions entre différentes dimensions qui déterminent
l’efficacité de ces outils comme aide à la décision : la
crédibilité, la pertinence et la légitimité. Enfin, les implications de
ces partis pris seront discutées au regard des usages potentiels, par
l’entreprise, des résultats produits.
6Est
présentée ici une évaluation de dix-huit outils d’évaluation de la
biodiversité et des services écosystémiques recommandés aux entreprises.
Ce travail s’appuie sur une grille d’analyse développée à partir des
travaux de Cash et al. (2002) et Sarkki et al. (2014)
pour évaluer les outils en fonction de leur crédibilité, pertinence et
légitimité. Des compromis existent-ils entre ces trois dimensions ?
Sont-ils associés à certains choix techniques des outils ? Quelles
peuvent être les conséquences de ces arbitrages en fonction de la
finalité de l’évaluation pour l’entreprise en termes de gestion de la
biodiversité et des services écosystémiques ? Cet article vise à
apporter un éclairage à ces questions de recherche.
7L’article
est structuré en quatre sections. La Section 1 présente les systèmes de
valeur sous-jacents aux orientations méthodologiques des outils
d’évaluation de la biodiversité et des services écosystémiques et met en
évidence un déficit d’études portant sur l’efficacité et les effets
empiriques des outils. Les concepts de crédibilité, pertinence et
légitimité sont retenus comme critères d’évaluation des outils. La
Section 2 présente les dix-huit outils sélectionnés pour l’étude et la
méthode d’évaluation de leur crédibilité, pertinence et légitimité. Les
résultats de l’analyse quantitative sont présentés en Section 3. Les
liens observés entre les caractéristiques et la crédibilité, pertinence
et légitimité des outils sont discutés dans la Section 4 et mis en
perspective avec la finalité d’usage des outils par les entreprises.
- 1 Ces deux perspectives sont traduites par l’Intergovernmental Science-Policy Platform on Biodiversit (...)
8Les
outils d’évaluation de la biodiversité et des services écosystémiques
sont façonnés par les valeurs des acteurs impliqués dans leur
conception, au travers des choix méthodologiques effectués (Vandevelde,
2013). Ils reposent ainsi sur des hypothèses, souvent implicites, et
issues de systèmes de valeurs. Un système de valeur peut se définir
comme l’ensemble des valeurs auxquelles se réfèrent les individus, les
sociétés et les organisations pour réguler leurs comportements (Díaz et al., 2015). Ces hypothèses sous-jacentes définissent notamment la perspective biocentrée ou anthropocentrée de l’évaluation1,
l’adoption d’une approche réductionniste ou systémique, ainsi que
l’acceptabilité des compromis faits entre les différents enjeux de
durabilité (Gasparatos et Scolobig, 2012). Le concept de service
écosystémique s’inscrit ainsi dans une perspective anthropocentrée. En
effet, « une fonction écologique ne prend valeur de service à
l’homme que dans la mesure où des usages socio-économiques, la
réglementation et les valeurs sociales la reconnaissent comme telle et
la canalisent de manière à ce qu’elle réponde à des besoins humains,
actuels ou anticipés » (Maresca et al., 2011, p. 9).
9Bien
que les méthodes d’évaluation de la biodiversité puissent être
classifiées sur la base de multiples critères (Spurgeon, 2014),
Gasparatos et Scolobig proposent de les distinguer selon trois grandes
catégories d’approches : biophysiques, monétaires et basés sur des
indicateurs composites (Gasparatos et Scolobig, 2012). Les approches
biophysiques visent à quantifier des données environnementales
biologiques (ex. : richesse spécifique, taille de population) et
physiques (ex. : fragmentation des habitats, flux de matières). Les
approches de monétarisation sont basées sur des modèles de
comportements humains et reposent sur l’hypothèse que ce sont les
préférences subjectives des individus qui créent la valeur. La valeur de
la biodiversité et des services écosystémiques est traduite en unité
monétaire, impliquant leur substituabilité avec d’autres capitaux, et
ignorant généralement de nombreux services non quantifiés, voire
quantifiables (Gadrey, 2011). L’approche monétaire s’inscrit ainsi dans
une conception dite « faible » de la durabilité. Enfin, les
approches à base d’indicateurs composites impliquent de nombreux choix
méthodologiques. Les phases de sélection d’indicateurs, pondération,
normalisation et agrégation cachent souvent, sous des choix apparemment
méthodologiques et techniques, des prises de position en termes de
visions, valeurs et priorités. Ainsi, les choix, et donc les résultats
de l’évaluation, dépendent des experts construisant l’outil
d’évaluation.
10Afin
de répondre aux préoccupations concrètes des décideurs, les méthodes
d’évaluation pour la biodiversité et les services écosystémiques sont
opérationnalisées via le développement d’outils spécifiques s’appuyant
sur une palette méthodologique plus ou moins large et fournissant un ou
plusieurs types de résultats (biophysiques, monétaires, basés sur des
indicateurs composites).
11« On ne gère bien que ce que l’on mesure ».
Cet adage, omniprésent dans les discours managériaux, est réemployé à
l’égard de la conservation de la biodiversité et des ressources
naturelles. Cette idée se retrouve dans certains discours affirmant que
la mauvaise gestion de la biodiversité et des services écosystémiques
vient du fait qu’« on ne protège pas ce à quoi on ne donne pas de valeur »
(Myers et Reichert, 1997, p. xix). Dans cette perspective,
certains acteurs soutiennent que la monétarisation de la biodiversité et
des services écosystémiques permet de mieux les intégrer aux décisions
stratégiques et à la gestion des activités en traduisant les enjeux en
des termes familiers aux décideurs (Bräuer, 2003 ; Polasky,
2008 ; TEEB, 2012).
12Peu
de travaux de recherche semblent s’être penchés sur les usages réels et
les apports pratiques des évaluations de la biodiversité et des
services écosystémiques, soit du fait que les chercheurs accordent peu
d’attention à cet enjeu, soit du fait d’une sous-utilisation de ces
méthodologies (Laurans et al., 2013). Le rapport Eco4Biz du
WBCSD (WBCSD, 2013) et l’analyse comparative réalisée par la mission
« Économie de la biodiversité » de la Caisse des Dépôts et
Consignations, matérialisée par l’outil GoBIODIV+ (Thievent, 2015)
discutent l’intérêt d’une palette d’outils pour les entreprises en
illustrant leur argumentaire par quelques retours d’expérience. Bagstad et al. ont comparé et appliqué différents outils pour évaluer les services écosystémiques du bassin de San Pedro (Bagstad et al.,
2013). Au-delà de ces rares initiatives, l’analyse critique de ces
nouveaux outils et des changements dans les modalités de gestion de la
biodiversité et des services écosystémiques qu’ils engendrent semble peu
développée au regard des enjeux qu’ils représentent. Waage et Kester
soulignent ainsi que « peu, voire aucun, de ces outils n’a fait
l’objet d’un processus de vérification et de validation robuste,
transparent et indépendant, en particulier en termes d’application au
secteur privé » (Waage et Kester, 2015, p. 12). L’intérêt
affiché des outils d’évaluation de la biodiversité et des services
écosystémiques, destinés aux entreprises, paraît davantage reposer sur
des présupposés relatifs aux vertus de l’évaluation que sur une
validation par une analyse des effets empiriques.
13Les
outils d’évaluation de la biodiversité et des services écosystémiques
peuvent être envisagés comme des interfaces articulant des connaissances
pour générer des informations en support à la prise de décision. La
crédibilité, la pertinence et la légitimité ont été proposées comme des
attributs de l’efficacité des interfaces science-décision (Cash et al., 2002 ; IPBES, 2014 ; Rodela et al.,
2015). La crédibilité de l’information est relative à la perception par
un acteur de sa qualité, de sa validité et de sa robustesse
scientifique. L’évaluation de la crédibilité est à la fois fonction de
la confiance dans le processus de production de l’information et dans
les institutions qui apportent les connaissances (Sarkki et al.,
2014). La pertinence fait référence au fait que l’évaluation est
appropriée pour informer le choix du décideur. Enfin, la légitimité
reflète le sentiment que le processus d’évaluation a pris en compte la
diversité des systèmes de valeurs et de croyances des parties prenantes,
et a été conduit de façon impartiale et juste dans son traitement des
opinions et intérêts divergents (Cash et al., 2002).
14Ces trois attributs semblent présenter des complémentarités et des compromis (Cash et al., 2002 ; Sarkki et al.,
2014). Il peut ainsi être difficile de maximiser simultanément la
crédibilité, la pertinence et la légitimité d’un outil d’évaluation. Il
n’est cependant pas trivial d’analyser les synergies et divergences de
ces trois dimensions, car il n’existe pas de mesure directe de la
crédibilité, la pertinence et la légitimité (CPL). Heink et al.
soulignent le caractère subjectif de ces trois qualités, qui peuvent
avoir des significations variables en fonction des contextes et des
acteurs (Heink et al., 2015). Dans l’optique de mobiliser ces attributs pour évaluer l’efficacité d’une interface science-décision, Heink et al.
recommandent d’expliciter les liens entre les attributs CPL et l’objet
d’étude, de spécifier précisément ce que recouvrent ces concepts pour
les rendre opérationnels et transparents et d’adapter les critères
d’évaluation aux définitions des attributs CPL retenus.
15S’appuyant
sur un cadre d’analyse construit autour de ces trois dimensions –
crédibilité, pertinence, légitimité –, la suite de l’article
présente une analyse quantitative portant sur un échantillon de dix-huit
outils recommandés aux entreprises.
16Relativement
peu d’entreprises communiquent sur les outils qu’elles utilisent en
interne, ou qui sont mobilisés pour produire les résultats diffusés vers
l’extérieur. Ne pouvant ainsi identifier les principaux outils
d’évaluation de la biodiversité et des services écosystémiques utilisés,
nous nous concentrerons sur les outils faisant l’objet d’une
communication récurrente dans des publications conseillant les
entreprises sur les moyens à mettre en œuvre pour mieux appréhender les
enjeux de biodiversité.
17Une
revue de la littérature grise a permis d’identifier cinq rapports,
principalement à destination des acteurs économiques et financiers,
préconisant des outils d’évaluation de la biodiversité et des services
écosystémiques (Oregon State University, Sustainable Northwest et
University of Oregon, 2013 ; WBCSD, 2013 ; KPMG, 2014 ;
Maxwell, McKenzie et Traldi, 2014 ; Waage et Kester, 2015).
L’analyse croisée de ces documents a permis d’identifier pas moins de
cent vingt-neuf outils d’évaluation différents traitant entre autres ou
exclusivement de la biodiversité et des services écosystémiques. La
majorité des outils n’étaient cités que dans un seul document et aucun
n’était présenté par l’ensemble des cinq rapports.
18Nous
n’avons retenu que les outils cités dans au moins trois rapports
différents, soit dix-huit outils au total, présentés dans le tableau 1.
La mention d’une utilisation par des entreprises a pu être documentée
pour quatorze outils.
- 2 Nous nous sommes notamment inspirés des critères de (Bagstad et al., 2013 ; Thievent, 2015).
19À
partir de la documentation disponible en libre accès sur internet
(sites officiels des outils, journaux scientifiques…), nous avons dans
un premier temps dégagé certaines caractéristiques2 des outils sélectionnés, synthétisées dans le Tableau 2.
20Ces
outils présentent des caractéristiques variées. Différentes catégories
d’acteurs sont impliquées dans leur conception : des institutions
académiques (ex. : University of Vermont, King’s College London,
Ohio State University…), des organisations non gouvernementales (ONG)
spécialisées dans l’environnement (ex. : UICN, BirdLife
International, Conservation International…), des organismes
institutionnels (ex. : UNEP-WCMC, la National Science Foundation
(NSF) américaine), des entreprises (cabinets de conseil, tels que PwC ou
ERM, coalitions d’entreprises, WBCSD par exemple, ou encore entreprises
individuelles, telles que Puma). Sept des dix-huit outils étudiés ont
été développés par des entreprises (seules ou en partenariat avec
d’autres acteurs). Concernant leurs conditions d’utilisation, douze sont
gratuits et quatorze peuvent être utilisés de façon autonome par les
usagers. A contrario, EP&L (PUMA, 2012), TIMM et True Price
sont des outils payants dont le déploiement est opéré par les tenants
de la propriété intellectuelle.
21Ces
outils revêtent différents formats. Les modèles informatiques,
permettant des analyses quantitatives, tiennent une place prépondérante.
Six outils se présentent sous forme de guides éventuellement
accompagnés d’un fichier Excel aidant l’utilisateur dans le traitement
des données. Ces guides apportent des éléments de vulgarisation et
d’opérationnalisation des concepts associés à la biodiversité et aux
services écosystémiques, donnent des instructions, précisent les
procédures pour conduire les évaluations, donnent des exemples
d’applications, de bonnes pratiques, de retours d’expérience.
22Parmi
les quatorze outils qui proposent une approche quantitative, neuf
produisent des résultats monétarisés, huit fournissent des indicateurs
biophysiques, trois produisent des indicateurs composites normalisés
(sans unité). Les outils basés sur des approches monétaires ne sont pas
l’apanage des entreprises, l’outil d’évaluation monétaire SERVES par
exemple a été développé par l’ONG Earth Economics, et inversement des
entreprises ont été impliquées dans le développement des outils non
monétaires BROA, ESR (Hanson et al., 2009), ESB (Grigg et al., 2009) et LEFT (Willis et al., 2012).
23La
moitié des outils étudiés autorisent des évaluations à plusieurs
échelles (du produit à l’échelle régionale/globale). L’échelle locale
est la plus récurrente (10 outils sur 18).
24L’effort
initial à fournir par l’utilisateur pour collecter et intégrer les
données d’entrée nécessaires varie considérablement. Ainsi, l’outil LEFT
requiert uniquement de rentrer les coordonnées géographiques du site
d’intérêt et génère automatiquement un rapport rendant compte de sa
valeur écologique à partir de bases de données préexistantes. Les outils
ARIES (Villa et al., 2014), MIMES (Boumans et al., 2015) et NSV nécessitent quant à eux d’entrer un nombre important de données pour construire des scénarios géo-spatialisés.
25En
termes de finalités d’usage, l’ensemble de ces outils se donne
comme objectif d’aider l’entreprise à établir un diagnostic dans le
cadre d’un usage interne, pour appréhender la matérialité des enjeux,
supporter la prise de décision lors de l’évaluation de projets, évaluer
les performances environnementales. Pour six outils, la documentation
associée fait explicitement référence à un usage externe, dans le cadre
du reporting RSE ou de la communication à destination des parties
prenantes. Un seul outil (BROA) prétend apporter un support au pilotage
et à la mise en œuvre des plans d’action.
26Dans la perspective d’évaluer la crédibilité, pertinence et légitimité (Cash et al., 2002) de ces dix-huit outils, nous avons opté pour les orientations conceptuelles suivantes :
- une approche de la crédibilité basée sur la conformité aux standards scientifiques ;
-
une approche pragmatique de la pertinence au regard d’attentes et de
contraintes des usagers de l’outil d’évaluation (ici les
entreprises) ;
une conception institutionnelle et contractuelle
(inclusion des parties prenantes et prise en compte de leurs intérêts)
de la légitimité.
27Nous
avons construit sur cette base un cadre d’analyse spécifiant comment
les concepts de crédibilité, pertinence et légitimité ont été articulés
(tableau 3) et la manière dont ils ont été évalués (tableau 4).
28Le
Tableau 3 récapitule les neuf critères retenus pour évaluer la
crédibilité, la pertinence et la légitimité (trois critères par
attribut), organisés autour de trois étapes clés pour aboutir à
l’évaluation de la biodiversité et des services écosystémiques :
- la conception de l’outil ;
- le processus d’évaluation ;
l’expression des résultats de l’évaluation.
29Le
choix de ces neuf critères (ci-après notés critères CPL) s’est notamment
appuyé sur les caractéristiques de la crédibilité, pertinence et
légitimité identifiées dans les travaux de (Sarkki et al., 2014, p. 198). La caractéristique « consensus » proposée par Sarkki et al.
pour qualifier la légitimité a cependant été remplacée dans notre cadre
d’analyse par le critère « portage multi-institutionnel ».
30Le
Tableau 4 détaille la démarche suivie pour noter les critères CPL des
outils. Chaque critère a été spécifié par une assertion pour laquelle un
score a été attribué sur une échelle ordinale à trois niveaux :
0 si l’assertion est invalidée, 1 si elle est partiellement
validée, 2 si elle est validée. Le choix d’opter pour une échelle à
seulement trois niveaux et de définir les critères d’évaluation de
façon restrictive a été motivé par la volonté de standardiser
l’évaluation et de limiter la part de subjectivité imputable à
l’évaluateur.
31Seule
la documentation disponible en libre accès sur les sites internet
officiels de ces outils a été utilisée pour noter les assertions.
32Les
analyses statistiques ont été réalisées à l’aide du logiciel R (version
3.1.2). Les corrélations entre les neuf critères CPL ont été analysées
avec le test non paramétrique de corrélation de Spearman (les variables
étant ordinales) à partir des scores obtenus pour les dix-huit outils.
La significativité des coefficients de Spearman a été testée par un test
bilatéral. Les corrélations étaient considérées comme significatives
pour une p-value inférieure à 0,05. Le package FactoMineR a été utilisé
pour réaliser une analyse en composantes principales (ACP) des dix-huit
outils en prenant comme variables les scores des neuf critères CPL. Le
type de résultats produits par les outils (qualitatif, non monétaire,
monétaire ou combinant monétaire et non monétaire), la présence
d’entreprises parmi les concepteurs des outils, ainsi que la finalité
d’usage des outils (cf. Tableaux 1 et 2) ont été utilisés
comme variables qualitatives illustratives. Les variables illustratives
n’influent pas sur le calcul des composantes principales. Elles
apportent cependant un éclairage à l’interprétation des variabilités
observées en testant a posteriori l’association entre composantes principales et variables illustratives.
33Les
scores totaux obtenus par les outils sur la base de la grille d’analyse
CPL s’échelonnent entre 0,8/3 et 2,2/3. Les cinq outils ayant obtenu
les plus hauts scores (score total supérieur ou égal à 2/3) sont les
outils BROA, IBAT, InVEST, LEFT et TESSA.
34Les
plus hauts scores de crédibilité ont été obtenus par les outils ARIES,
IBAT et InVEST, de pertinence par ESB et de légitimité par BROA et
TESSA. Aucun outil ne semble ainsi se démarquer des autres sur
l’ensemble des dimensions CPL.
35L’analyse
des corrélations des scores des neuf critères CPL (Figure 1) indique
des corrélations négatives significatives entre l’objectif de répondre
aux questions opérationnelles des décideurs (P1) et la simplicité des
messages (P3) versus le développement de l’outil dans le
prolongement des connaissances scientifiques (C1), l’examen de la
qualité (C2) et la représentation équilibrée des points de vue (L3).
36Ceci
suggère qu’il existe des tensions entre, d’une part, certains aspects
relatifs à la pertinence des outils d’évaluation pour la biodiversité et
les services écosystémiques pour les décideurs et, d’autre part, leur
crédibilité scientifique et leur légitimité sociale.
37Des corrélations positives entre les critères caractérisant un même attribut sont aussi observées :
concernant
la pertinence, la simplicité des messages (P2) est positivement
associée à l’objectif de répondre à des questions opérationnelles ou
stratégiques (P3) ;
concernant la crédibilité, l’examen de la
qualité (C2) est positivement corrélé d’une part au développement de
l’outil dans le prolongement des connaissances scientifiques (C1), et
d’autre part à la communication des incertitudes et des limites (C3).
38L’ACP
des scores assignés aux dix-huit outils pour les neuf critères CPL
permet de mettre en évidence des profils d’outils contrastés (figure
2a). Le premier axe principal (qui résume 40,65 % de la variance
totale) permet de ségréguer les outils ayant obtenu des scores
relativement élevés par rapport à leur ancrage scientifique (C1) et
l’examen de la qualité méthodologique (C2) (à droite, Dim
1 positive), des outils exposant des messages simples (P3) en
réponse aux attentes des décideurs (P1) (à gauche, Dim 1 négative).
La contribution respective des variables au premier axe principal
est la suivante : C1 = 24 %, C2 = 19 %,
P3 = 19 %, P1 = 17 %.
39Le
deuxième axe principal (qui résume 19,56 % de la variance totale)
oppose les outils nécessitant une large implication des parties
prenantes dans le processus d’évaluation (L2) (Dim 2 positive) et
ceux permettant une évaluation rapide (P2) (Dim 2 négative)
(contributions respectives des variables au deuxième axe
principal : L2 = 41 %, P2 = 34 %).
40Les deux premiers axes de l’ACP, permettent ainsi de distinguer quatre profils d’outils (figure 2 ) :
(ἀ)
des outils relativement crédibles et légitimes mais moins pertinents en
vue de l’aide à la décision (ex. : TESSA et InVEST) ;
(β)
des outils permettant une évaluation rapide (P2) et crédible (C1, C2),
moins performants en termes d’implication des participants (L2)
(ex. : IBAT et LEFT) ;
(χ) des outils pertinents pour les
décideurs (P1, P2, P3) mais pouvant présenter des écueils sur le plan de
leur légitimité et crédibilité (ex. : ESB) ;
(δ) des
outils présentant des messages simples (P3), en réponse aux attentes des
décideurs (P1) et intégrant les parties prenantes dans le processus
d’évaluation (L2), mais moins performants en termes de crédibilité
(ex. : BROA).
41Les
trois caractéristiques des outils mobilisées comme variables
illustratives sont significativement associées au premier axe principal à
savoir :
- le type de résultats produits par les outils (R2 = 0,78 ; p.value < 0,001) ;
- l’implication d’entreprises dans la conception de l’outil (R2 = 0,55 ; p.value < 0,001) ;
la finalité d’usage (R2 = 0,37 ; p.value = 0,03).
42Aucune de ces caractéristiques n’est significativement associée au second axe principal.
43Ainsi,
lorsque des entreprises ont pris part au développement, les outils
présentent des scores relativement plus élevés en termes de simplicité
du message et d’orientation vers les besoins des décideurs, mais
semblent en moyenne moins performants en termes de crédibilité et de
présentation de divers points de vue (Dim 1 = -1,6 ; p.value
< 0,001), et inversement pour les outils n’ayant pas impliqué
d’entreprise (Dim 1 = 1,3 ; p.value < 0,001).
44En
termes de finalité d’usage, les outils présentés comme pouvant être
mobilisés en vue d’une communication externe ont des scores de
pertinence relativement plus élevés que leurs scores de crédibilité (Dim
1 = -1,5 ; p.value = 0,02) alors que les outils
uniquement voués au diagnostic ont en moyenne des scores de crédibilité
supérieurs aux scores de pertinence (Dim 1 = 1,0 ;
p.value = 0,008).
45Bien
que les associations avec le second axe principal ne soient pas
significatives, la Figure 2 suggère que les outils combinant des
résultats monétaires et non monétaires pourraient être plutôt
caractérisés par le profil α (Dim 1 = 2,3 ; p.value =
0,009 et Dim 2 = 0,8 ; p.value = 0,3). Le profil β semble
plutôt caractéristique des outils biophysiques et basés sur des
indicateurs composites (Dim 1 = 1,2 ; p.value = 0,09 et
Dim 2 = -0,9 ; p.value = 0,07). La majorité des outils
monétaires se répartissent entre les profils χ et δ (Dim 1 =
-1,5 ; p.value = 0,05 et Dim 2 = 0,12 ;
p.value = 0,8). Les outils qualitatifs se retrouvent dans
l’ensemble dans le profil δ (Dim 1 = -1,9 ; p.value =
0,02 et Dim 2 = 0,3 ; p.value = 0,6).
46L’évaluation
de la biodiversité et des services écosystémiques n’est pas une fin en
soi, mais a vocation à informer et rationaliser des choix (Salles,
2011 ; Laurans et al., 2013). Les allégations, concernant
les bénéfices pour une entreprise, de conduire une évaluation de la
biodiversité et des services écosystémiques dont elle dépend ou qu’elle
impacte sont multiples : meilleure gestion des ressources, des
risques, amélioration de la communication avec les parties prenantes…
L’efficacité de ces outils d’évaluation pour éclairer les choix en
entreprise et améliorer la gestion des impacts et de l’état de la
biodiversité et des services écosystémiques est cependant, au stade
actuel, largement hypothétique.
47Les
dix-huit outils d’évaluation étudiés illustrent la diversité d’acteurs
impliqués dans leur développement, d’approches méthodologiques, de
niveaux de technicité et de finalités d’usage. Notre étude, qui se
limite à l’analyse des caractéristiques des outils en dehors de
contextes d’application spécifiques, suggère des arbitrages entre la
crédibilité, la pertinence et la légitimité des outils, trois attributs
clés pour articuler efficacement connaissances et décisions (Cash et al.,
2002). Ceci interpelle quant à la capacité de ces outils à améliorer la
gestion effective de la biodiversité et des services écosystémiques.
Après avoir exposé les limites de cette étude, nous nous proposons dans
cette section de discuter les associations observées entre les profils
CPL et les caractéristiques des outils, puis les implications possibles
quant aux usages de ces outils par les entreprises.
48La validité et le caractère généralisable des résultats présentés ici sont à nuancer au regard des limites de notre étude.
49Tout
d’abord, notre cadre d’analyse a été défini afin de mettre en évidence
de potentielles tensions ou synergies entre crédibilité, pertinence et
légitimité des outils. Il n’a pas pour intention de leur attribuer un
score qui refléterait leur qualité absolue. Ce cadre d’analyse restreint
les dimensions que peuvent recouper les concepts de crédibilité,
pertinence et légitimité à des assertions opérationnelles qui ne
traduisent que partiellement la substance de ces dimensions.
50D’autre
part, les scores CPL ont été évalués sur la base de la documentation
accessible sur les sites dédiés aux outils avec un possible risque
d’omission d’informations au cours de la recherche et l’analyse
documentaires. Afin de limiter la part de subjectivité inhérente à
l’évaluateur lors de l’attribution des scores aux outils, la grille de
notation a été standardisée et l’échelle de notation réduite à trois
niveaux. Lors de l’exercice de notation, il est cependant apparu que
certains critères étaient plus objectifs (par exemple le critère
L1 portant sur la diversité des organisations impliquées dans le
développement de l’outil) que d’autres (par exemple le critère
L3 relatif à la présentation équilibrée des intérêts des parties
prenantes).
51De
plus, la crédibilité, la pertinence et la légitimité des outils n’ont
été évaluées qu’en tenant compte des caractéristiques des outils hors
contexte spécifique d’utilisation. La durée de réalisation d’une
évaluation (P2), par exemple, a ainsi été notée sur la base des
informations mentionnées par les développeurs et des retours
d’expérience publiés. Or celle-ci peut varier significativement en
fonction du périmètre de l’entreprise, de la disponibilité des données
et du nombre d’acteurs impliqués dans l’évaluation. Certains outils
(tels que LEFT, ESB ou IBAT) autorisent peu de marge d’adaptation
méthodologique alors que d’autres offrent une flexibilité importante
(par exemple ARIES, ESR ou CEV). Pour ces derniers, les processus
d’utilisation ont potentiellement un fort impact sur la crédibilité,
pertinence et légitimité des résultats et décisions issus de
l’évaluation.
52L’analyse
des scores CPL des dix-huit outils a mis en évidence l’existence
d’arbitrages entre crédibilité, pertinence et légitimité. Ces résultats
supportent l’hypothèse qu’il existe des compromis, mais éventuellement
aussi des synergies entre ces trois dimensions comme l’ont suggéré
plusieurs auteurs (Cash et al., 2002 ; Sarkki et al., 2014). Nous pouvons constater des disparités entre les tensions proposées par Sarkki et al.
et celles qui émergent de notre étude. Par exemple, leur analyse
corrobore l’existence de tensions entre l’objectif de répondre aux
questions opérationnelles des décideurs (P1) versus une approche dans le prolongement des connaissances scientifiques (C1), mais Sarkki et al. n’identifient pas de compromis entre la simplicité des messages (P3) versus une
approche dans le prolongement des connaissances scientifiques (C1)
alors que la corrélation négative observée dans notre étude est
particulièrement significative.
53Les
résultats de la présente étude suggèrent que les arbitrages entre
crédibilité, pertinence et légitimité pourraient être tributaires :
- de l’implication d’acteurs économiques lors de la conception de l’outil ;
54-
du type de résultats produits (qualitatif, monétaire, non monétaire, ou
combinant des valeurs monétaires et non monétaires) ;
et de la finalité d’usage (diagnostic, pilotage, communication externe).
55Concernant
les types de résultats produits, les outils combinant valeurs
monétaires et non monétaires, tous développés avec des organismes
académiques, retranscrivent la complexité des enjeux. Ils requièrent un
niveau de technicité avancé et sont relativement lourds à déployer. La
priorité est mise sur l’exhaustivité et le réalisme de la modélisation
au détriment du caractère opérationnel de l’outil. Les outils monétaires
visent à délivrer une réponse synthétique aux questions des décideurs.
S’ils apparaissent comme pertinents pour les décideurs, cela semble être
aux dépens de leur crédibilité scientifique et de la représentation
équilibrée des points de vue. Les outils biophysiques et basés sur des
indicateurs normés sont les plus rapides à déployer et bénéficient d’une
crédibilité scientifique relativement élevée. Restreignant le contexte
d’étude aux enjeux techniques, ils semblent peu intégrer les parties
prenantes dans le processus d’évaluation. Enfin, les outils qualitatifs
ressortent comme globalement pertinents pour répondre aux questions des
décideurs et certains mettent l’accent sur la prise en compte des
parties prenantes. Néanmoins, ceux-ci peuvent demander un effort de
déploiement conséquent et le formalisme de la démarche peut être
incertain. Ainsi, le choix d’un outil doit être avant tout cohérent avec
l’objectif de l’exercice.
56Les
applications possibles des outils ont été synthétisées en trois
catégories : la réalisation d’un diagnostic (cliché analytique
momentané pour informer la décision en interne), le pilotage (approche
procédurale, plans d’action pour assurer un suivi dans le temps) et la
communication externe (reporting, justification des arbitrages).
57Dans
l’optique d’une communication externe, les exigences en termes de
crédibilité et de légitimité de l’évaluation pourraient être
supérieures. L’entreprise s’expose en effet à ce que les résultats
soient contestés par ses parties prenantes. Pourtant, notre analyse
suggère que les outils promus pour la communication externe sont des
outils qui mettent davantage l’accent sur la pertinence pour les
décideurs que sur la légitimité et la crédibilité de l’évaluation. La
crédibilité scientifique et la représentation équilibrée des points de
vue sont les deux critères pour lesquels l’écart avec les outils limités
au diagnostic est le plus important. Privilégier trop fortement la
dimension pratique d’un outil au détriment de sa robustesse
méthodologique et de la légitimité de l’évaluation peut être
contre-productif dans le cadre d’une communication externe des
résultats. L’écueil le plus récurrent de ces outils concerne
l’explicitation de la méthode d’évaluation, à l’exception des outils
EP&L et IBAT pour lesquels la méthode est clairement exposée. Très
peu d’éléments sont notamment fournis par les outils TIMM et TRUE P,
développés par des organismes privés. Ce déficit de transparence
méthodologique peut éventuellement être motivé par des problématiques de
confidentialité, mais risque de générer auprès des parties prenantes
l’impression que les résultats sont issus d’une boîte noire qui ne
permet pas de discuter les choix méthodologiques. Quant aux guides ESR
et CEV qui laissent une marge de manœuvre conséquente à l’utilisateur,
la crédibilité et la légitimité de l’évaluation peuvent être largement
influencées par la conduite de l’évaluation. Il appartient donc aux
entreprises d’expliciter la démarche suivie afin d’asseoir la
crédibilité et la légitimité des informations communiquées.
58Parmi
les cinq outils ayant les plus hauts scores CPL totaux, quatre ont
effectivement été utilisés par des entreprises (BROA, IBAT, InVEST et
LEFT). Nous discutons plus spécifiquement les résultats obtenus pour ces
quatre outils et leurs utilisations potentielles.
59L’outil
BROA (développé par le British American Tobacco Biodiversity
Partnership) est le seul outil qui prétend apporter, au-delà du
diagnostic, un support opérationnel en termes de pilotage et de
déploiement de plans d’action. Il se distingue par sa dimension
pragmatique, avec un focus sectoriel sur l’agriculture et une approche
risque/opportunité nécessitant une implication forte des parties
prenantes du terrain. Cet outil est ressorti de l’analyse comme
particulièrement performant sur le plan de la légitimité et de la
pertinence pour les décideurs, mais apparaît comme moins robuste sur le
plan de la crédibilité scientifique. Cet apparent déficit de
crédibilité, reflétant la structure de la grille d’évaluation CPL, est
cependant à nuancer, car l’outil a fait l’objet d’une revue indépendante
par plusieurs organismes bénéficiant d’une solide légitimité (notamment
UNEP-WCMC et WWF-UK).
60Les
outils IBAT (développé par BirdLife International, Conservation
International, IUCN et l’UNEP-WCMC) et LEFT (développé par le
Biodiversity Institute University of Oxford, Department of Computer
Science University of Oxford et Statoil) partagent des caractéristiques
et des profils CPL relativement similaires. Les deux outils permettent
de géo-localiser les sites importants pour la biodiversité à proximité
d’une zone d’intérêt. Leur principale finalité est de faciliter la
comparaison de zones d’implantation potentielles et d’anticiper les
enjeux écologiques à partir de la spécification d’un minimum de données
par l’utilisateur, à savoir les coordonnées géographiques de la zone
d’étude. IBAT et LEFT facilitent ainsi le recoupement de diverses
sources d’information et diminuent le coût de transaction
potentiellement élevé de la collecte de données écologiques pour établir
un diagnostic de premier niveau. Les choix méthodologiques pour
apprécier l’intérêt écologique des sites sont cependant très
différents : IBAT se base sur une approche institutionnelle (sites
faisant l’objet d’une protection réglementaire, liste rouge de l’UICN…),
alors que LEFT se base sur une approche écologique (caractéristiques
locales de fragmentation, vulnérabilité, connectivité, nombre d’espèces
par taxon… dérivées notamment de la Global Biodiversity Information
Facility). IBAT et LEFT ont obtenu des scores CPL quasiment identiques, à
savoir une crédibilité scientifique et une pertinence pour les
décideurs élevées, mais un niveau de légitimité moindre, notamment en
termes d’implication des parties prenantes. En contexte réel
d’utilisation par les entreprises, il peut cependant être envisageable
qu’une entreprise engage des processus de concertation en complément de
l’évaluation fournie par ces outils. La granulosité de ces outils, qui
restent actuellement macroscopiques, invite en effet à apporter un
éclairage supplémentaire plus proche du terrain.
61Enfin,
InVEST (développé par le Natural Capital Project) est le seul des
quatre outils à ne pas avoir été pensé spécifiquement pour les
entreprises et son niveau de technicité est plus élevé. Il nécessite
ainsi un investissement relativement lourd de l’entreprise (bien que la
segmentation en tiers de l’outil autorise une gradation de cet
investissement en fonction des besoins de l’utilisateur). Ce type
d’outil est a priori plutôt utilisé pour comparer des scénarios
de gestion dans le cas de projets ponctuels particulièrement sensibles.
Les nombreuses allégations quant aux finalités d’usages possibles de
l’outil (Natural Capital Project, 2015) nous semblent davantage refléter
la multi-dimensionnalité que le caractère opérationnel de l’outil qui
permet, sur la base d’une quinzaine de modèles, une évaluation
spatialisée des services écosystémiques, de leur utilisation et des
compromis, exprimés en unités biophysiques et/ou monétaires. Les
résultats CPL obtenus par InVEST, à savoir des scores de
crédibilité élevés, mais une pertinence pour les décideurs moindre,
soulignent la dimension encore très académique de l’outil.
62Notre
étude, basée sur une analyse documentaire, permet d’entamer une
réflexion sur les relations entre les caractéristiques des outils
d’évaluation, leur qualité sur le plan de la crédibilité, de la
pertinence et de la légitimité, et leurs finalités d’usage. La valeur
ajoutée pratique de ces outils n’a pu encore être démontrée de façon
tangible. Cet examen est d’autant plus difficile que les comparaisons
entre outils sont délicates. Cette difficulté découle de différences
importantes dans la définition des services écosystémiques, la structure
analytique des outils et le type de résultats produits (Waage, Hwang et
Armstrong, 2011). Il s’agit d’un pan de l’évaluation environnementale
encore relativement récent qui nécessite d’être examiné plus finement
afin de dépasser le caractère réducteur d’un discours présentant
l’évaluation comme une panacée. L’analyse des usages concrets des outils
d’évaluation par les entreprises et de leurs impacts sur les modalités
de gestion de la biodiversité et des services écosystémiques nous semble
être une perspective de recherche qui pourrait donner lieu à une
enquête par entretiens auprès d’entreprises déclarant utiliser les
outils d’évaluation présentés dans cet article : comment
s’approprient-elles ces outils ? Dans quelle mesure l’outil, le
processus d’évaluation et les modalités de communication
conditionnent-ils respectivement la crédibilité, pertinence et
légitimité des résultats ? Quelles sont les actions concrètes mises
en place suite à l’évaluation ?
63Il
existe aujourd’hui une demande pour des méthodes standardisées
d’évaluation des impacts et dépendances des entreprises vis-à-vis de la
biodiversité et des services écosystémiques. Cependant, les allégations
quant aux vertus des outils d’évaluation pour la biodiversité et les
services écosystémiques demeurent largement spéculatives. Les apports
concrets de ces outils en termes d’évolution des modalités de gestion de
la biodiversité et des services écosystémiques restent à démontrer.
64Différents
systèmes de valeurs et rationalités s’expriment au travers des
orientations méthodologiques de ces outils. La biodiversité et les
services écosystémiques recouvrent des dimensions variées qui ne peuvent
être exhaustivement intégrées dans un même outil. Malgré les
simplifications inéluctables, les outils d’évaluation sont donc
intrinsèquement complexes de par leur objet d’étude.
65L’analyse
de dix-huit outils recommandés aux entreprises suggère des tensions
structurelles entre leur pertinence pour les décideurs (simplicité des
messages, objectif de répondre à des questions opérationnelles ou
stratégiques) versus leur crédibilité scientifique (examen de
la qualité, développement de l’outil dans le prolongement des
connaissances scientifiques) et leur légitimité sociale. Les arbitrages
entre crédibilité, pertinence et légitimité semblent dépendants à la
fois de l’implication d’acteurs économiques lors de la conception de
l’outil, du type de résultats produit par l’évaluation et de la finalité
d’usage de l’outil.
66Ces
outils doivent être considérés comme des initiatives d’acteurs ayant
leurs propres motivations et rationalités. Leur institutionnalisation
constitue, pour les acteurs impliqués dans leur conception et leur
diffusion, un levier pour influer sur les représentations de la
biodiversité. Dans un contexte où diverses organisations poussent au
développement de ces approches évaluatives (COP10 CDB, 2010 ;
Spurgeon, 2014 ; KPMG, 2014), notre grille d’analyse
« crédibilité, pertinence, légitimité » propose de questionner
certaines stratégies et certains rapports de force à l’œuvre dans ces
outils. Des perspectives de recherche pourraient viser à faire le lien
entre les caractéristiques des outils utilisés et leur efficacité en
termes d’évolution des modalités de gestion de la biodiversité et des
services écosystémiques. Le rôle de plus en plus prégnant accordé aux
entreprises dans la conservation de la biodiversité (COP10, 2010)
appelle en effet à poser un regard critique sur les dynamiques à l’œuvre
pour s’assurer qu’elles contribuent à orienter les acteurs vers un
modèle plus durable.