Les faux répondants et les sondages en ligne – Les méthodes du Pew Research Center

Nous avons comparé les données provenant de six sources en ligne utilisées pour les sondages publics, dont trois sources importantes d’échantillons d’enquêtes opt-in, une plateforme de crowdsourcing et deux panels d’enquête qui sont recrutés hors ligne en utilisant des échantillons aléatoires nationaux d’adresses résidentielles et qui sont interrogés en ligne. L’un des échantillons d’adresses recrutés provient du panel de tendances américaines du Pew Research Center. L’étude comprenait plus de 60 000 entretiens, dont au moins 10 000 provenaient de chacune des six sources en ligne. Tous les échantillons ont été conçus pour interroger des adultes américains âgés de 18 ans et plus.

Plus de 80 % des sondages utilisés pour suivre les indicateurs clés de l’opinion publique américaine, tels que la cote d’approbation du président ou le soutien aux candidats démocrates à la présidence, sont réalisés au moyen de sondages en ligne avec option de participation. Une nouvelle étude du Pew Research Center révèle que les sondages en ligne réalisés à l’aide de sources opt-in largement utilisées contiennent des parts faibles mais mesurables de faux répondants (environ 4 à 7 %, selon la source). Il est important de noter que ces faux répondants ne répondent pas seulement au hasard, mais qu’ils ont plutôt tendance à choisir des réponses positives, ce qui introduit un petit biais systématique dans des estimations comme l’approbation présidentielle.

Ce modèle n’est pas partisan. Alors que 78 % des faux répondants ont déclaré approuver les performances professionnelles du président Donald Trump, leur taux d’approbation de la loi de 2010 sur les soins de santé, également appelée Obamacare, était encore plus élevé, à 84 %. Les réponses ouvertes montrent que certains répondants répondent comme s’ils participaient à une étude de marché (par exemple, en disant “Excellent produit” quelle que soit la question).

Bien que certains problèmes liés aux sondages soient toujours présents (par exemple, les personnes interrogées ne répondent pas avec soin ou ne donnent pas des réponses socialement souhaitables), le risque que de mauvais acteurs compromettent un sondage d’opinion est, à certains égards, nouveau. C’est une conséquence de la migration du terrain vers des échantillons de commodité en ligne de personnes qui s’inscrivent pour obtenir de l’argent ou d’autres récompenses en répondant à des sondages. Cela introduit le risque que certaines personnes répondent non pas avec leur propre opinion mais avec des réponses qu’elles estiment susceptibles de plaire au commanditaire du sondage. Cela soulève également la possibilité que des personnes qui n’appartiennent pas à un sondage américain (par exemple, des personnes d’un autre pays) tentent de se présenter sous un faux jour pour répondre à des enquêtes et gagner de l’argent ou d’autres récompenses.

Dans ce contexte, cette étude a été lancée pour mesurer si ce type de comportement est présent sur les plateformes en ligne les plus utilisées et, si oui, dans quelle mesure et avec quelles conséquences. Cette étude définit un faux répondant comme une personne qui répond à un ou plusieurs des critères suivants : avoir répondu plusieurs fois à l’enquête ; avoir déclaré vivre en dehors des États-Unis (la population cible est constituée d’adultes américains) ; avoir donné plusieurs réponses ouvertes non séquentielles ; ou avoir toujours dit qu’elle approuvait/favorisait ce qui était demandé.

L’étude révèle que tous les sondages en ligne ne souffrent pas de ce problème. Les sondages en ligne qui recrutent des participants hors ligne par un échantillonnage aléatoire d’adresses résidentielles n’ont que des niveaux de traces de faux répondants (1 % dans chacun des deux panels testés recrutés par adresse). Dans les panels recrutés par adresse, il y a trop peu de cas fictifs pour avoir un effet perceptible sur les estimations.

L’étude compare les données provenant de six sources en ligne utilisées pour les sondages publics : trois sources importantes d’échantillons d’enquêtes opt-in (deux places de marché et un panel), une plateforme de crowdsourcing et deux panels d’enquête qui sont recrutés hors ligne en utilisant des échantillons aléatoires nationaux d’adresses résidentielles mais qui sont interrogés en ligne. L’un des échantillons d’adresses recrutés provient du panel de tendances américaines du Centre. L’étude comprenait plus de 60 000 entretiens, dont au moins 10 000 provenaient de chacune des six sources en ligne. Tous les échantillons ont été conçus pour interroger des adultes américains âgés de 18 ans et plus. Les analyses ne sont pas pondérées car il s’agit d’un examen de la crédibilité des réponses des répondants.

Ce n’est pas la première étude à trouver indigne de confiance interviews dans les enquêtes en ligne. Cette étude est cependant la première à comparer la qualité des données provenant de multiples panels d’enquête avec option de participation et adresses recrutées, ainsi que d’une plateforme de crowdsourcing. Cette étude est également la première à utiliser des tailles d’échantillon suffisamment importantes pour estimer de manière fiable l’incidence des faux répondants, ainsi que les données démographiques et les attitudes politiques rapportées par les faux répondants dans chaque source.

Certaines questions du sondage sont plus touchées par les faux répondants que d’autres. Les questions qui permettent au répondant de donner une réponse positive montrent des effets plus importants que celles qui ne le font pas. Par exemple, une question de sondage classique conçue pour obtenir une lecture de haut niveau sur le sentiment public demande si les choses dans le pays sont “généralement dans la bonne direction” ou “sur la mauvaise voie”. La proportion de personnes qui déclarent “aller dans la bonne direction” baisse de deux points de pourcentage dans les sondages par panel avec option de participation lorsque les faux répondants sont retirés. Dans les sondages auprès du public, le chiffre baisse de quatre points lorsque les faux répondants sont retirés. Cependant, d’autres questions – telles que l’affiliation à un parti politique ou les opinions sur les nouvelles lois sur les armes à feu – ne semblent pas correspondre à ce comportement et ne montrent que peu ou pas d’influence des cas fictifs sur les résultats.

Cela s’explique en partie par le fait qu’une partie des personnes interrogées dans le cadre de l’opt-in expriment des opinions positives sur tout, même lorsque cela implique de donner des réponses apparemment contradictoires. Cette étude comprend sept questions auxquelles les personnes interrogées peuvent répondre qu’elles “approuvent” ou ont une opinion “favorable” de quelque chose. Environ la moitié des sujets des questions (Vladimir Poutine, Theresa May, Donald Trump) ont tendance à être soutenus par des publics conservateurs, tandis que les autres sont plus populaires auprès des publics de gauche (Emmanuel Macron, Angela Merkel et la loi de 2010 sur les soins de santé). Si les personnes interrogées répondent avec soin, il serait inhabituel qu’une personne exprime un point de vue sincère et favorable à l’égard des sept.

L’étude a révélé que 4 % des personnes interrogées dans le cadre du crowdsourcing ont donné une réponse favorable aux sept questions, suivies de 1 à 3 % des sondages par panel de l’enquête opt-in. Quelques répondants de ce type ont été interrogés dans les sondages à adresses recrutées, mais ils représentent moins d’un demi pour cent. Le résultat est que des parts faibles mais non négligeables de répondants opt-in en ligne recherchent des choix de réponses positives et les sélectionnent uniformément (par exemple, en supposant qu’il s’agit d’une étude de marché et/ou que cela plairait au chercheur). Dans une expérience de suivi où l’ordre des réponses a été randomisé, les chercheurs ont confirmé que ce style de réponse d’approbation de tout était intentionnel (et non pas simplement un effet de primauté) (voir chapitre 8).

Mais ces répondants uniformément positifs ne sont pas les seuls à pousser les notes d’approbation à la hausse. Les personnes interrogées présentant d’autres comportements suspects répondent de la même manière. Par exemple, si l’on met de côté les cas toujours approuvés, l’étude révèle que 71 % des personnes ayant répondu à plusieurs questions ouvertes non séquentielles approuvent la loi de 2010 sur les soins de santé, tout comme 80 % des personnes ayant répondu à l’enquête plus d’une fois. De même, lorsque les cas toujours approuvés sont mis de côté, 42 % des personnes ayant répondu plusieurs fois à l’enquête expriment une opinion favorable à l’égard de Vladimir Poutine, tout comme 32 % des personnes ayant donné plusieurs réponses non séquentielles. Ces taux sont environ trois fois plus élevés que la cote de popularité réelle de Poutine parmi les Américains (environ 9 %), selon des Sondage. Ces tendances sont importantes car elles suggèrent des données peu fiables qui peuvent biaiser les estimations des sondages et non pas simplement ajouter du bruit.

L’étude révèle également que deux des contrôles les plus courants pour détecter les entretiens en ligne de mauvaise qualité – la recherche des répondants qui répondent trop vite ou qui échouent à une question de contrôle de l’attention (ou “piège”) – ne sont pas très efficaces. La question de contrôle d’attention se lisait comme suit : “Il est essentiel de prêter attention et de lire attentivement les instructions. Si vous êtes attentif, veuillez choisir “Silver” ci-dessous”. Quelque 84 % des faux répondants réussissent la question piège et 87 % réussissent un contrôle pour avoir répondu trop rapidement.

Après avoir utilisé ces contrôles pour supprimer des cas, les sondages avec recrutement opt-in examinés ici avaient encore 3 à 7 % d’interviews provenant de faux répondants, contre 1 % dans les échantillons en ligne avec recrutement d’adresses.

L’une des implications les plus notables de l’étude est la preuve que des personnes d’autres pays pourraient être en mesure de participer à des sondages destinés à mesurer l’opinion publique américaine. Autres chercheurs ont documenté des répondants étrangers en Inde et au Venezuela participant à des recherches en sciences sociales américaines en utilisant des plateformes de crowdsourcing. Cette étude confirme ces résultats. Environ 5 % des répondants utilisant le crowdsourcing utilisaient une adresse IP basée en dehors des États-Unis, et les pays d’accueil les plus courants pour les adresses IP étrangères étaient les Seychelles et l’Inde. En revanche, dans les échantillons d’adresses recrutées en ligne, le taux d’adresses IP étrangères était de 1 %, et les pays d’accueil les plus courants pour les adresses IP étrangères étaient le Canada et le Mexique. Pratiquement aucune personne interrogée dans les échantillons de panels d’enquête à participation volontaire ne possédait d’adresse IP en dehors des États-Unis, ce qui suggère que les panels d’enquête ont mis en place des contrôles pour éviter cela. Les autres conclusions clés de l’étude sont les suivantes :

Les interviews bidons étaient enclins à se déclarer comme hispaniques ou latinos. Dans l’ensemble, 10 % des répondants à l’étude se sont identifiés comme étant hispaniques, mais le taux était trois fois plus élevé (30 %) parmi les cas signalés pour comportement trompeur. Selon l’American Community Survey du Census Bureau, les Hispaniques représentent 16 % de la population adulte américaine. Bien que certains des faux répondants puissent très bien être hispaniques, ce taux est probablement gonflé pour plusieurs raisons. En particulier, l’ethnicité hispanique a été mesurée au moyen d’une question autonome “oui/non”, de sorte que les personnes répondant au hasard devraient répondre “oui” environ la moitié du temps. En raison de cette plus grande propension des faux répondants à s’identifier comme hispaniques, les estimations de fond de l’enquête pour les hispaniques (comme l’approbation présidentielle) risquent d’être beaucoup plus biaisées que pour l’échantillon dans son ensemble (voir le chapitre 6).

Les questions ouvertes ont suscité des réponses plagiées et des critiques de produits de la part de certains répondants opt-in et crowdsourcing. Les réponses aux questions ouvertes montrent que dans les six sources, la plupart des répondants semblent donner des réponses authentiques qui répondent à la question posée. Cela dit, 2 à 4 % des répondants au sondage opt-in ont donné à plusieurs reprises des réponses qui ne correspondaient pas à la question posée, contre 0 % des répondants au panel recrutés par adresse. Un examen plus approfondi des 6 670 réponses non séquentielles de l’étude a révélé plusieurs types différents : examens de produits non sollicités, texte plagié provenant d’autres sites web et trouvé lors de la saisie de la question dans un moteur de recherche, texte conversationnel, mots courants et autres, diverses réponses non séquentielles. Les réponses plagiées ont été trouvées presque exclusivement dans les crowdsourced alors que les réponses ressemblant à des critiques de produits ainsi que les textes ressemblant à des bribes de conversation personnelle étaient plus fréquents dans les panels d’enquête opt-in.

Une question ouverte a été particulièrement efficace pour détecter les faux répondants. La question “Que souhaitez-vous que les dirigeants élus à Washington fassent au cours des prochaines années ? Veuillez donner autant de détails que vous le pouvez” a suscité deux fois plus de réponses plagiées que la question qui arrive en deuxième position (176 contre 78). Les deux tiers (66 %) des réponses plagiées étaient des bribes de diverses biographies de George Washington. Ces répondants (qui provenaient presque tous de l’échantillon de la foule) avaient apparemment placé la question dans un moteur de recherche, et les deux premiers résultats de recherche se trouvent être des biographies en ligne du premier président des États-Unis.

Des changements de 2 ou 3 points de pourcentage sont-ils vraiment importants ?

Les résultats de cette étude suggèrent qu’avec des panels d’enquête multiples et largement utilisés – les estimations du degré d’approbation ou de préférence du public sont probablement biaisées à la hausse, à moins que le sondeur n’effectue un nettoyage des données au-delà des contrôles communs explorés ici. Ce biais provient des quelque 4 à 7 % de répondants qui ne donnent pas de réponses sincères ou qui ne sont pas réellement américains. Les sondages en ligne recrutés hors ligne à l’aide d’échantillons d’adresses ne partagent pas ce problème, car l’incidence des répondants de mauvaise qualité est très faible. En termes absolus, les biais documentés dans ce rapport sont faibles et leurs conséquences peuvent être envisagées de plusieurs manières :

  • Peu importe si, dans un seul sondage, le taux d’approbation du président est de 43 % contre 41 %. Une telle différence se situe généralement dans la marge d’erreur et ne change rien à ce que dit le sondage sur l’équilibre général du sentiment public.
  • Il est plus discutable de savoir s’il est important que de nombreux sondages nationaux surestiment de quelques points de pourcentage le soutien du public à une politique ou à un président. Pour des politiques comme la loi sur les soins abordables, où le soutien du public a été légèrement inférieur ou supérieur à 50 %, un léger biais systématique entre les sondages pourrait avoir des conséquences.
  • Il est également important d’envisager ce qui se passera si les décideurs politiques et le public perdent davantage confiance dans les sondages en raison de données provenant de personnes qui donnent des réponses peu sincères ou qui ne devraient pas participer à l’enquête au départ. Les problèmes mis en évidence dans cette étude sont mineurs pour une enquête donnée, mais ils laissent entrevoir la possibilité de problèmes beaucoup plus graves dans un avenir proche, à mesure que la dépendance à l’égard des échantillons “opt-in” augmente et que les obstacles à l’entrée dans le domaine des sondages publics continuent de diminuer. Pour les chercheurs qui utilisent des échantillons nationaux aléatoires ou même des échantillons opt-in bien conçus, le risque est qu’un scandale très public impliquant un échantillon opt-in de mauvaise qualité puisse nuire à la réputation de tous les acteurs du domaine. Cette recherche suggère qu’il y a un travail considérable à faire pour réduire ce risque à un niveau acceptable.

Les bots ou les gens qui répondent avec insouciance

Les données frauduleuses générées par les robots d’enquête constituent une menace émergente pour de nombreux sondages opt-in. Les robots d’enquête sont des algorithmes informatiques conçus pour répondre automatiquement à des enquêtes en ligne. Au moins un de ces produits est disponible dans le commerce et propose un “mode indétectable” avec une intelligence artificielle semblable à celle de l’homme. Les bots ne constituent pas un problème sérieux pour les panels en ligne recrutés par adresse, car seules les personnes sélectionnées par le chercheur peuvent y participer. Ils peuvent toutefois poser un problème pour tout sondage opt-in dans lequel les personnes peuvent s’inscrire elles-mêmes ou visiter des sites web ou des applications où les efforts de recrutement sont courants.

Il y a nombreux anecdotique comptes de robots dans les enquêtes en ligne avec option de participation. En revanche, les recherches rigoureuses sur cette question sont rares. L’une des principales difficultés de ces recherches est de distinguer les robots des répondants humains qui répondent simplement de manière imprudente. Par exemple, des réponses logiquement incohérentes ou des réponses ouvertes absurdes pourraient être générées par une personne ou un robot. Ce rapport détaille les schémas de réponse observés et, lorsque cela est possible, examine si le schéma est plus révélateur d’un humain ou d’un algorithme. La catégorisation des cas comme définitivement bot ou non bot est évitée car le niveau d’incertitude est généralement trop élevé. Dans l’ensemble, les données de cette étude suggèrent que la distinction la plus conséquente est celle entre les entretiens qui sont crédibles et ceux qui ne le sont pas (ou qui sont faux), quel que soit le processus spécifique qui génère les données.

Implications pour les sondages

L’étude révèle qu’aucune méthode de sondage en ligne n’est parfaite, mais qu’il existe des différences notables entre les approches en ce qui concerne les risques posés par les faux entretiens. Le sondage effectué auprès de la population se distingue par un ensemble de problèmes uniques. Presque toutes les réponses plagiées ont été trouvées dans cet échantillon, et environ un répondant sur vingt avait une adresse IP étrangère. Pour la recherche expérimentale, ces problèmes peuvent être atténués en imposant des contrôles et en limitant la participation aux travailleurs ayant un taux d’achèvement ou d’approbation des tâches d’au moins 95 %. Mais exiger un taux de travailleurs de 95 % est un critère douteux pour les sondages censés représenter les Américains de toutes capacités, de tous niveaux d’éducation et de toutes situations professionnelles. En outre, la présence de répondants étrangers n’était qu’un des nombreux problèmes de qualité des données dans l’échantillon de l’enquête. Si toutes les interviews avec une adresse IP étrangère sont retirées de l’échantillon “crowdsourcced”, le taux de faux répondants (4%) est encore nettement plus élevé que celui constaté dans les échantillons recrutés par échantillonnage aléatoire.

Pour les panels d’enquête et les marchés opt-in en ligne, les préoccupations concernant la qualité des données sont les suivantes de longue date. La conclusion la plus remarquable est peut-être que les faux répondants peuvent avoir un petit effet systématique sur les questions offrant un choix de réponse positif. Cela ne devrait peut-être pas être une surprise, étant donné que de nombreuses enquêtes, sinon la plupart, menées sur ces plateformes sont des études de marché visant à évaluer dans quelle mesure les gens approuvent ou désapprouvent divers produits, publicités, etc. Il est difficile de trouver une autre explication pour des réponses à l’aveuglette comme “J’aime que cela fonctionne bien, que cela tienne ses promesses et que l’on accepte l’argent qui est versé pour cela. ans”. Cette étude suggère que certains contrôles de qualité pourraient aider à détecter et à supprimer certains de ces cas. Mais on ne sait pas très bien quels enquêteurs publics ont mis en place des contrôles de routine solides et quelle est leur efficacité. Cette étude montre que si aucun contrôle de qualité n’est effectué, on doit s’attendre à ce que les estimations de type approbation soient affectées.

Il est certain que les sondages opt-in n’ont pas le monopole des mauvais comportements des répondants. Un certain nombre de répondants recrutés par adresse ont échoué à divers contrôles de qualité des données dans le cadre de cette étude. Cela dit, les incidences étaient si faibles que les estimations des sondages n’ont pas été affectées de manière systématique.

Cette étude signifie-t-elle que les sondages sont faux ?

Non. Bien que certaines des conclusions soient préoccupantes, elles ne signalent pas que les bulletins de vote sont cassés, erronés ou indignes de confiance. Comme le 2018 à mi-parcours (et même au niveau national de la 2016 ), des sondages bien conçus et éprouvés fournissent encore des informations précises et utiles. Bien qu’elles ne soient pas incluses dans cette étude, d’autres méthodes de sondage – telles que les entretiens téléphoniques en direct ou les enquêtes ponctuelles dans lesquelles les personnes sont recrutées par courrier pour répondre à un sondage en ligne – peuvent donner de bons résultats lorsqu’elles sont exécutées avec soin.

En ce qui concerne les sondages en ligne, l’étude constate que les panels d’enquête recrutés hors ligne à l’aide d’un échantillonnage aléatoire d’adresses postales ont obtenu de très bons résultats, ne montrant qu’un niveau de trace de faux répondants. Les panels et les places de marché qui utilisent le sourcing opt-in ont montré des niveaux plus élevés de données non fiables, mais ces niveaux étaient assez faibles. Plutôt que d’indiquer que certains sondages sont erronés, cette étude documente un certain nombre de problèmes de qualité des données – qui sont tous actuellement de faible niveau mais qui pourraient s’aggraver dans un avenir proche.

Aperçu de la conception de la recherche

Cette étude a été conçue pour mesurer l’incidence des entretiens non fiables sur les plateformes en ligne utilisées couramment pour les sondages d’opinion publique. Les chercheurs du centre ont élaboré un questionnaire (annexe E) contenant six questions ouvertes et 37 questions fermées. Le début du questionnaire est conçu pour ressembler à un sondage politique de routine. En fait, les questions ouvertes sont calquées sur celles utilisées par plusieurs des sondages publics les plus prolifiques réalisés en ligne.

Comme d’autres chercheurs l’ont fait notéLes questions ouvertes peuvent être un outil efficace pour identifier les répondants problématiques. Les questions ouvertes (par exemple, “Qu’aimeriez-vous que les dirigeants élus à Washington fassent au cours des prochaines années ?”) exigent que les personnes interrogées formulent leurs réponses dans leurs propres mots. Les chercheurs en ont profité pour classer les réponses ouvertes en fonction de plusieurs caractéristiques suspectes (voir annexe B). De même, un certain nombre de questions fermées ont également été conçues pour détecter les réponses problématiques (voir le chapitre 7). D’autres questions portaient sur des sujets fréquemment abordés dans les sondages, tels que l’évaluation des performances professionnelles du président et l’opinion sur la loi relative aux soins de santé abordables.

Au total, six plateformes en ligne utilisées pour les sondages d’opinion ont été incluses. Trois d’entre elles sont des panels d’enquête opt-in largement utilisés. L’une d’entre elles est une plateforme de crowdsourcing opt-in. Deux des sources sont des panels d’enquête qui réalisent des entretiens en ligne mais recrutent hors ligne. Pour les deux panels recrutés hors ligne, la plupart des panélistes ont été recrutés en utilisant l’échantillonnage basé sur l’adresse (ABS), et donc “recruté par adresse” est utilisé tout au long du rapport comme une abréviation. Avant d’utiliser l’ABS, les deux panels ont recruté hors ligne en utilisant des échantillons aléatoires de numéros de téléphone (composition aléatoire). Pour les besoins de cette étude, la propriété importante est que tous les membres de ces deux panels ont été recrutés hors ligne par échantillonnage aléatoire à partir d’une base de sondage qui couvre pratiquement tous les Américains.

Chaque échantillon a été conçu pour réaliser au moins 10 000 entretiens avec des adultes américains âgés de 18 ans et plus dans les 50 États et le district de Columbia. La collecte des données a eu lieu en mars et avril 2019. Les dates exactes du terrain pour chaque échantillon et des détails méthodologiques supplémentaires sont fournis à l’annexe A. Le micro-dataset est disponible pour téléchargement sur le site web du Pew Research Center.

Limitations et mises en garde

La généralisabilité est un défi dans les études examinant la qualité des enquêtes en ligne à participation volontaire, car ces enquêtes ne sont pas monolithiques. Les fournisseurs d’échantillons et les enquêteurs publics varient considérablement tant dans leurs procédures de contrôle de la qualité que dans la mesure dans laquelle ces procédures sont communiquées au public. Alors que certaines organisations rendent publiques les mesures qu’elles prennent pour identifier et éliminer les faux répondants, la pratique est loin d’être universelle, et un examen des déclarations de méthodes des sondages opt-in utilisés pour suivre l’approbation présidentielle, par exemple, n’a révélé aucune mention de contrôles de qualité des données. Il est donc difficile, même pour les consommateurs avertis, de déterminer quel type de contrôle a été effectué pour un sondage donné.

De manière générale, cette étude porte sur des sondages en ligne dans lesquels l’enquêteur n’effectue que peu ou pas de vérification de la qualité des données. Dans la mesure où les enquêteurs publics utilisent couramment des contrôles de qualité des données sophistiqués – au-delà des questions d’excès de vitesse et de piège abordées dans ce rapport – les résultats de cette étude peuvent être trop pessimistes.

Bien qu’il ne soit pas raisonnable d’attendre de ces enquêteurs qu’ils détaillent exactement comment ils tentent de détecter les cas fictifs (car cela pourrait renseigner les mauvais acteurs), une discussion sur les procédures en place serait utile pour sonder les consommateurs qui tentent de déterminer si cette question est abordée. Un scénario plausible est qu’au moins certains enquêteurs comptent sur les panels/marchés qui vendent les interviews pour être responsables de la qualité et de la sécurité des données. Les données de cette étude ont été recueillies en partant de ce principe, et les résultats montrent que le recours aux panels opt-in peut conduire à des parts non négligeables de cas fictifs.

En savoir plus sur les prix immobilier