Article

L’art rencontre improbable avec l’Intelligence artificielle ?

Dans un monde où la technologie façonne notre quotidien à un rythme effréné, une question persiste : l’intelligence artificielle peut-elle être douée de créativité ?

Création artistique ?

Matthieu Cord, professeur en informatique spécialisé en intelligence artificielle (IA), et Hugo Caselles-Dupré, cofondateur du collectif Obvious et pionnier de l’utilisation de l’IA dans la création artistique, explorent les synergies, les défis éthiques et les horizons futurs de la fusion entre art et algorithmes.

En quoi l’IA générative diffère-t-elle de la créativité humaine, et comment ces deux formes de création peuvent-elles collaborer ou se compléter ?

Art seulement une technique maitrisée ?

Hugo Caselles-Dupré : Aujourd’hui, l’art n’est pas défini par la technique, mais par la volonté d’une personne d’exprimer un message et de rencontrer son public. Or les algorithmes ne peuvent pas, pour le moment, avoir d’intention, d’autonomie propre à créer, puisqu’ils sont toujours développés par un humain. Cependant, l’IA générative ouvre de nouvelles perspectives pour les artistes en leur offrant des possibilités techniques et esthétiques inédites.

Processus créatif

Concrètement, elle révolutionne les processus créatifs en facilitant certaines étapes de la création et en élargissant le champ des possibles. Par exemple, elle peut fournir aux artistes des outils pour produire plus rapidement des esquisses, des prototypes ou différentes stratégies pour développer un thème donné. Dans le domaine de l’écriture, l’IA est capable de reproduire des règles implicites utilisées dans la construction de romans ou de scénarios. Pour la création visuelle, elle peut créer une image selon le style de tel ou tel artiste, en fonction des images qu’on lui aura fournies pendant l’apprentissage.

Matthieu Cord : Comme ce qui s’est produit dans le cas des échecs ou du go, l’IA permet de trouver des combinaisons et des positions encore inexplorées par les humains. En cela, elle peut agir comme un catalyseur pour l’inspiration et l’expérimentation et les algorithmes de génération automatique ouvrir de nouvelles voies créatives dans le domaine artistique.

Pouvez-vous partager des exemples de projets artistiques réalisés avec l’IA ?

H. C. D. : Dans notre collectif Obvious, nous avons par exemple réalisé la série de peintures Belamy, une série de onze portraits dont l’un a été sélectionné par Christie’s et vendu aux enchères à New-York pour près d’un demi-million de dollars. Dans cette œuvre, il ne s’agit pas de retouche d’image, mais bien de fabrication d’images générées à l’aide d’algorithmes, similaires à ceux utilisés en recherche, et entraînés sur un vaste corpus d’œuvres artistiques.

M. C. : Nous pouvons aussi évoquer le projet autour de la pièce inachevée, L’Astrologue, de Molière. Des collègues de la faculté des Lettres nous ont demandé de générer du texte dans le style de l’auteur en entrainant des algorithmes sur les écrits de Molière. L’objectif est ensuite de travailler avec le Théâtre Molière Sorbonne pour affiner ces algorithmes et avoir une génération de plus en plus pertinente. En parallèle, des algorithmes de génération d’images pourraient être utilisés pour créer des suggestions de costumes, de décors et de mises en scène qui s’harmonisent avec l’esthétique de l’époque.

Projet Renaissance ?

Pouvez-vous nous dire quelques mots du projet Renaissance que vous portez ensemble et qui est financé par l’Agence nationale de la recherche ?

H. C. D. : L’objectif de ce projet, coordonné par notre laboratoire Obvious research, est de développer des architectures open source pour générer des vidéos de qualité à partir de séquences de phrases. Après avoir décrit des images avec des mots, puis avec des phrases, l’IA permet aujourd’hui, de fabriquer du contenu – texte, image vidéo – à partir d’un prompt textuel. Mais s’il existe déjà des générateurs d’images à partir de texte, la génération de vidéos reste un défi.

M. C. : Nous cherchons donc, à travers ce projet, à créer des outils ouverts et transparents pour permettre à la communauté de construire de nouveaux modèles dans ce domaine. C’est une orientation importante suite aux récents changements dans la politique de publication de certains acteurs de l’IA !

Quels sont les défis éthiques liés à l’utilisation de l’IA dans la création artistique ?

H. C. D. : Elle soulève plusieurs préoccupations importantes comme la question de l’originalité et de l’authenticité des œuvres générées, la question de la responsabilité et de la transparence dans le processus de création, les droits d’auteur et la propriété intellectuelle, ou encore les risques de manipulation. Mais ces enjeux éthiques ont toujours accompagné les grandes révolutions techniques. Pensons à l’arrivée de la photographie en 1850 : à l’époque, on y voyait une technologie disruptive, réservée aux ingénieurs, et qui allait éteindre l’art. Aujourd’hui, nous sommes tous d’accord pour dire que la photographie est un domaine artistique à part entière qui n’a pas tué la peinture, mais l’a transformée.

M. C. : Je nuancerais cette comparaison. Contrairement à l’appareil photo, l’IA a des capacités « cognitives ». Elle a par exemple la capacité de résumer, de faire une proposition détaillée, d’écrire une histoire, etc. Les enjeux éthiques liés à la création sont donc différents.

Pour l’instant, l’idée d’une machine capable de créer de manière autonome reste de l’ordre de la science-fiction. 

Domaines de créativité de l’intelligence artificielle

Quels sont les domaines créatifs où l’IA pourrait avoir le plus grand impact ?

H. C. D. : Je vois deux types d’impact. D’abord, son utilisation à des fins commerciales, où l’IA peut être exploitée pour répondre à des demandes de création visuelle sans valeur artistique ajoutée, telles que la production de contenus promotionnels. Comme l’IA peut travailler en continu et accepter un nombre infini de retours, son utilisation risque d’entraîner des changements dans l’industrie graphique et menacer l’emploi traditionnel. Il est donc nécessaire de mettre en place des mesures pour adapter les compétences des professionnels du secteur à prendre en main ces outils.

Le second grand impact concerne l’Art avec un grand A, où l’approche conceptuelle d’une œuvre prime sur la simple technicité. Aujourd’hui, l’utilisation de l’IA pour créer des images esthétiquement belles ne suffit pas à rendre une œuvre artistiquement significative. En cela, bien que l’IA générative puisse devenir un outil courant dans la création, elle ne remplacera pas les artistes eux-mêmes.

Autonomie de l’intelligence artificielle

Est-ce que la machine sera un jour suffisamment autonome pour créer elle-même son propre prompt ?

H. C. D. : Pour l’instant, l’idée d’une machine capable de créer de manière autonome reste de l’ordre de la science-fiction. Les algorithmes d’IA actuels sont toujours dépendants des directives et des contraintes fournies par les êtres humains, et leur capacité à produire des œuvres artistiques est limitée par les données et les modèles sur lesquels ils sont formés. Le jour où la machine sera capable de cela, je pense que l’art sera le dernier de nos soucis !

M. C. : Cette question de l’autonomie est débattue depuis longtemps. Si l’on regarde ce qui s’est produit dans le domaine du jeu, on s’aperçoit qu’un humain ne joue plus, aujourd’hui, au go contre une machine pour la battre. Les meilleurs joueurs ne peuvent plus rivaliser avec les meilleurs programmes d’IA. Mais cela n’empêche pas pour autant la compétition entre humains qui ont toujours beaucoup de plaisir à jouer. Ce qui nous intéresse le plus dans les échecs ou le go, c’est l’interaction avec un autre être humain.

Il en va de même pour l’art : on peut s’aider de la machine pour créer, mais ce qu’on apprécie avant tout dans l’œuvre d’art, n’est-ce pas justement le fait de savoir que l’on partage une commune humanité ? L’essence de l’art ne réside-t-elle pas au fond dans la connexion émotionnelle et intellectuelle entre le créateur et le spectateur ?

Récit

Matthieu Cord est professeur en informatique spécialisé en intelligence artificielle. Il dirige l’équipe Machine learning and information access (MLIA) à l’Institut des systèmes intelligents et de robotique (ISIR). Son travail se concentre sur la vision artificielle et l’interprétation et la description sémantiques des images.

Hugo Caselles-Dupré est cofondateur du trio artistique Obvious, qui a pour vocation d’explorer les impacts de l’IA sur la société et l’art. Docteur en machine learning, et ancien post-doc de l’ISIR, il explore les possibilités offertes par les algorithmes pour la création artistique.

Article

Faïence, Grès ou Porcelaine ? Exposition Morbihan

Leçon d’histoire

Une petite leçon d’histoire s’impose avant d’adopter cette tendance déco. En grec, la céramique, « keramos », signifie argile.
Le terme de céramique désigne l’ensemble des objets fabriqués en terre qui ont subi une transformation physique irréversible au cours d’une cuisson à température plus ou moins élevée.
Elle possède ainsi des caractéristiques différentes selon la nature de ses composants et la température de cuisson.

On distingue deux catégories de céramiques :

Les céramiques poreuses

La terre cuite :
Elle s’obtient par la cuisson de l’argile, à basse température.
Sa coloration rouge, orangée ou brune est due à la présence d’oxyde de fer dans la pâte.


Elle est surtout utilisée pour réaliser des sculptures, poteries et autres objets décoratifs mais peut également servir pour l’élaboration de briques ou tuiles.
Son aspect brut et artisanal et sa jolie couleur ocre séduisent les fans de décoration qui veulent apporter une touche chaleureuse à leur intérieur.

La faïence
Poreuse, opaque et fragile, la faïence constitue une poterie à fond blanc à base d’argile émaillée ou vernissée.


Il existe plusieurs types de faïence : la faïence plombifère à base de plomb, la faïence stannifère à base d’oxyde d’étain et la faïence fine réalisée avec une argile choisie pour la grande qualité de sa blancheur.
Principalement plébiscitée dans la confection de vaisselle et de carreaux de crédence, elle s’adapte à tous les styles de déco : vintage, scandinave, moderne ou encore baroque.

     

Les céramiques vitrifiées

Le grès
Le grès est une argile cuite et émaillée à base d’une argile à  très forte teneur en silice.
Il subit une deuxième cuisson à haute température qui le rend extrêmement dur et résistant et qui permet l’auto-vitrification de la terre et la fixation de l’émail.


Cette matière artisanale à l’aspect brut et rustique se prête aux formes simples et se décline le plus souvent dans des tonalités sourdes comme le beige, le gris ou le noir.


Incontournable au rayon art de la table, il s’intègre parfaitement dans la décoration pour une déco zen et minimaliste.

La porcelaine
La porcelaine est une céramique fine et translucide, à base de kaolin.
Elle nécessite une cuisson en deux temps et se vitrifie, ce qui la rend solide et résistante malgré sa finesse.
Délicate et élégante, la porcelaine s’invite à notre table avec raffinement.

Deux visites de musées – hors du Morbihan -vous sont proposées en lien avec cet article : 
https://www.sevresciteceramique.fr – Sèvres / Ile de France
https://museedelaceramique.fr – Rouen / Normandie
Que ce soit une promenade virtuelle ou un déplacement physique, vous ne serez pas déçu de découvrir la richesse de ces pièces qui font partie de notre patrimoine.
A découvrir sans modération.

Visuel

Article

Sculpture activité artistique ?

La sculpture est une activité artistique qui consiste à concevoir et réaliser des formes en volume, en relief, soit en ronde-bosse (statuaire), en haut-relief, en bas-relief, par modelage, par taille directe, par soudure ou assemblage. Le terme de sculpture désigne également l’objet résultant de cette activité.

Le mot sculpture vient étymologiquement du latin « sculpere » qui signifie « tailler » ou « enlever des morceaux à une pierre »1. Cette définition, qui distingue « sculpture » et « modelage », illustre l’importance donnée à la taille de la pierre dans la civilisation romaine. Au xe siècle, on parle d’« ymagier » et la plupart du temps, le travail du sculpteur est un travail d’équipe avec un maître et des tailleurs de pierre, comme il est traité dans l’art roman et l’architecture romane. Plusieurs équipes travaillent simultanément sur les grands chantiers des cathédrales.

Histoire

Les plus anciennes sculptures réalisées par l’homme et ayant traversé le temps sont de petites figurines rudimentaires taillées, en pierre ou en os2, qui servaient probablement à des pratiques magiques, d’ex-voto, d’échanges, de rituels qui permettaient de réaliser des transactions avec des forces surnaturelles ou sociales. La Vénus de Lespugue, sur ivoire de mammouth, en est un bel exemple. Certaines sculptures de taille plus imposante ont survécu aux millénaires qui nous séparent de leur créateur comme les bisons d’argile crue retrouvés dans la grotte du Tuc d’Audoubert en Ariège, les bas reliefs de l’abri sous roches du Roc-aux-Sorciers dans la Vienne ou les monolithes sculptés de Göbekli Tepe en Turquie. Il est probable que des objets modelés, en terre, ont aussi existé, mais en l’absence de techniques de pérennisation (cuisson), cela reste une hypothèse. D’autres sculptures, comme celles du Roc-aux-Sorciers, représentent des animaux sauvages, sans doute des représentations de l’alimentation des peuples de chasseurs-cueilleurs du Magdalénien.

Techniques

Pour créer une œuvre, plusieurs manières peuvent être envisagées, voire combinées entre elles.

  • Le modelage : L’idée de modelage fait tout de suite penser à la pâte à modeler que l’on travaille si facilement avec les doigts. C’est la technique la plus primitive et la plus directe de mise en forme d’un solide plastique, en l’occurrence la terre ou argile (grès, porcelaine ou faïence). Le modelage en terre n’a cessé d’être pratiqué au fil des siècles. Dans un bon nombre de cas, il a permis au sculpteur de préciser sa pensée. Il a rarement eu un caractère définitif à cause de sa fragilité, mais à partir de la Renaissance, il se voit attribuer un caractère privilégié puisque le sculpteur exécute tous ses modèles en terre et donne à reproduire ses œuvres à des mouleurs, fondeurs ou praticiens (agrandisseurs). Beaucoup d’artistes modernes, en quête de nouveauté, emploient pour leurs créations des matériaux inattendus : des tôles, des pièces métalliques et même des matières plastiques.
    La méthode consiste à ajouter ou retirer de la matière autour d’un ou plusieurs centres qui deviendront « l’âme » de la sculpture. Cette technique du modelage s’applique aux matériaux dits « plastiques », c’est-à-dire susceptibles de se déformer de façon réversible sous l’effet de forces minimes (l’argile, la cire, le plâtre et des pâtes à modeler diverses). À tout moment, de la matière peut être retirée ou ajoutée, les « repentirs » sont permis (jusqu’à un certain point, cependant). La souplesse du matériau permet d’enregistrer les impressions les plus fugitives avec une liberté totale. La limitation principale du matériau réside dans sa résistance souvent assez faible. Le séchage lent de la sculpture est l’étape suivante pour l’argile et le plâtre, le refroidissement pour la cire et la cuisson pour l’argile sèche.
  • La taille, dont le principe est de soustraire, à l’aide d’un outil percuté par un galet (préhistoire) ou une massette, des éclats dans une matière dure pour dégager de sa gangue une forme : il existe deux techniques fondamentales de taille pour sculpter la pierre ou le bois : la taille directe, sans croquis préalable ni modèle et qui tient compte de la forme originelle du bloc pour faire émerger une forme imaginée par le sculpteur, et la taille avec mises aux points, qui recopie fidèlement un modèle à partir de mesures exactes.
  • L’assemblage (voire l’appareillage3) consiste, dans une sculpture, à en assembler les éléments. Cela peut se faire par tenon et mortaise, ou chevilleboulonrivetsoudage , etc.) dans le même matériau ou dans des matériaux différents (la statue chryséléphantine de Zeus à Olympie était en bois, ivoire, or , etc.). Mais il peut s’agir d’objets divers (naturels ou fabriqués, qu’ils soient neufs, vieux, objets du quotidien, etc.). Ces objets peuvent être assemblés avec des parties obtenue par la taille ou d’autres moyens, comme c’est le cas dans certaines sculptures d’Afrique centrale. Toutes ces parties mises ensemble parviennent à former une sculpture unique, dont la somme dépassera la valeur esthétique des éléments séparés.
  • La stéréolithographie, ou prototypage rapide, permet de créer un volume d’après des données informatiques créées ex nihilo ou scannées d’après un modèle réel en trois dimensions4.
  • La sculpture numérique ou virtuelle permet de sculpter un volume virtuel, sans passer par une phase « plan ». Quelques logiciels libres permettent ainsi de modeler un objet virtuel par des fonctions simples permettant d’étirer, creuser, aplatir, lisser, colorer une forme tridimensionnelle, un peu comme on le ferait avec de la pâte à modeler (Sculptris5 par exemple), sur ordinateur. Une imprimante 3D permet éventuellement de la transformer en objet réel.

Techniques

Sculpture moderne

La sculpture moderne et contemporaine utilise encore ces matériaux, mais également le verre et les miroirs, des matériaux bruts, la glace et l’eau, les cristaux liquides et d’autres matériaux fabriqués par l’homme, tels que les matières plastiques, et en particulier les PMMA (polymétacrylate de méthyle) connus sous des noms déposés comme Plexiglas ou Altuglas, ainsi que n’importe quel objet trouvé. Le papier mâché est également un matériau extrêmement économique, et les techniques de réalisation de sculptures avec ce matériau sont simples à mettre en œuvre.

L’utilisation du chocolat n’est pas exclue. Par ailleurs, le monde de la cuisine se plaît à créer ce qui ressemble à de la sculpture, par jeu.

Dans ses derniers écrits, Joan Miró affirmait qu’à l’avenir, on pourrait imaginer des sculptures utilisant les gaz comme matériaux. Lui faisant écho, Louis Leygue, dans son discours de réception de Nicolas Schöffer à l’Académie des beaux-arts, définissait ainsi la sculpture :

« La sculpture peut se réaliser selon trois procédés : celui qui consiste à prélever la matière dans un bloc compact, celui qui consiste à façonner une matière molle pour créer des formes, enfin celui qui consiste à fabriquer ce que l’on veut réaliser. »

On assiste ainsi, avec la multiplication des musées et des publications savantes, à une redécouverte de matériaux oubliés au fil des siècles.

Si certains métaux, comme l’or, ont fasciné les hommes c’est que cette matière jouait avec la lumière. Le poli idéal que recherchait Brancusi se joue aussi de la lumière dans les photographies qu’il a réalisées de ses propres sculptures9. La lumière est une qualité de certains « matériaux ». De même, lorsqu’un sculpteur réalise une fontaine, l’eau est partie prenante des « matériaux » avec lequel il doit travailler, et même le mouvement qui est donné à l’eau. Le mouvement est alors une qualité du matériau « eau ». Jean Tinguely a su introduire le rapport entre ses assemblages d’objets de rebut, leurs mouvements heurtés et l’eau en mouvement avec les sons que la sculpture produit.

Après László Moholy-Nagy (Modulateur Espace Lumière, 192910), Nicolas Schöffer et bien d’autres artistes tels Marta Pan, ont été intéressés par les rapports de l’architecture et de la sculpture. Les deux premiers considérant la lumière comme un matériau autant que le mouvement. Marta Pan a réalisé ainsi des sculptures monumentales intégrées dans l’architecture des espaces publics et urbains, comme La Perspective dans le parc des Sources de la Bièvre à Guyancourt11. Nicolas Schöffer souhaitait réaliser une « Tour Lumière Cybernétique » en 1963, en interaction avec le quartier de La Défense, à Paris. L’espace, dont la qualité est d’être habité, pour Nicolas Schöffer, est un matériau au même titre que le mouvement qui anime ses sculptures12.

Photographie de Spiral Jetty, le 11 janvier 2004, à 7 h du matin. Le basalte y apparait d’autant plus noir.

Les artistes du Land art ont, pour leur part, souhaité sortir des galeries d’art et des musées, avec les conventions et contraintes que cela supposait, tout en réalisant ou en nous montrant des « sculptures » qui rompent avec les traditions récentes. Les « matériaux » sont, ici, nombreux : matériaux naturels, comme la spirale en remblai de basalte / le Grand Lac Salé, dans Spiral Jetty de Robert Smithson (1970) où la dimension du temps est essentielle. Tandis que pour James Turrell, c’est encore la lumière, naturelle, dans des espaces généralement construits en pleine nature (le Roden Crater). L’échelle, souvent monumentale de ces sculptures, prend en compte le paysage où les œuvres s’inscrivent, et la dimension temporelle sur de longues durées : la spirale, en basalte noir, de Robert Smithson, était pensée comme soumise aux fluctuations du lac, la spirale noire se borde alors de sel blanc, jusqu’à sa disparition dans les eaux salées, pendant les périodes de hautes-eaux, et sa réapparition, toute blanche, quelques années plus tard.

Non classé

Statistical data transformation in agrarian sciences for variance analysis

SYSTEMATIC REVIEW

REVISED 

Statistical data transformation in agrarian sciences for variance analysis: a systematic review

[version 2; peer review: 2 approved with reservations]

Jhennifer Nascimento

 https://orcid.org/0000-0002-2866-86811, Jonas Silva1, Rodrigo Cupertino Bernardes

 https://orcid.org/0000-0001-9481-036X2, Guilherme Costa

 https://orcid.org/0000-0002-5019-00983, Paulo Emiliano

https://orcid.org/0000-0002-1314-90021

Author details

Abstract

In statistical analyses, a common practice for enhancing the validity of variance analysis is the application of data transformation to convert measurements into a different mathematical scale. This technique was first employed in 1898 by Edgeworth and remains relevant in current scientific publications despite the proliferation of more modern and advanced techniques that obviate the need for certain assumptions. Data transformations, when appropriately used, can make the model error terms approximate a normal distribution. It is also possible to use the technique to correct the heterogeneity of variances or to render an additive model, ensuring the validity of the analysis of variances. Given that this technique can be hastily applied, potentially leading to erroneous or invalid results, we conducted a systematic literature review of studies in the field of agrarian sciences that utilized data transformations for the validation of analysis of variances. The aim was to check the transformations employed by the scientific community, the motivation behind their use, and to identify possible errors and inconsistencies in applying the technique in publications. In this study, we identified shortcomings and misconceptions associated with using this method, and we observed incomplete and inadequate utilization of the technique in 94.28 % of the analysed sample, resulting in misguided and erroneous conclusions in scientific research outcomes.

Keywords

Data manipulation, Systematic literature review, Agricultural sciences, ANOVA, Descriptive analysisCorresponding author: Jhennifer NascimentoCompeting interests: No competing interests were disclosed.

Grant information: Coordination for the Improvement of Higher Education Personnel – Brazil (CAPES) – Finance Code 001, the Foundation for the Support of Research in the State of Minas Gerais (Fapemig) and GSC is supported by grant 2023/03917-4, São Paulo Research Foundation (FAPESP), Brazil.

Copyright:  © 2024 Nascimento J et al. This is an open access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.How to cite: Nascimento J, Silva J, Cupertino Bernardes R et al. Statistical data transformation in agrarian sciences for variance analysis: a systematic review [version 2; peer review: 2 approved with reservations]. F1000Research 2024, 13:459 (https://doi.org/10.12688/f1000research.144805.2)First published: 08 May 2024, 13:459 (https://doi.org/10.12688/f1000research.144805.1)Latest published: 12 Jul 2024, 13:459 (https://doi.org/10.12688/f1000research.144805.2)

REVISED Amendments from Version 1

There were no major differences between this version of the article and the previously published version. We emphasized the adaptation we made to the screening process of our systematic review, corrected a few typographical errors, and added the absolute values alongside the percentages in Figure 1. These changes aim to provide a clearer and more accurate presentation of our goals, findings, and methodology.

See the authors’ detailed response to the review by Pradip Kumar Sahu
See the authors’ detailed response to the review by Pratheesh P Gopinath

1. Introduction

The analysis of variance (ANOVA) is a method used to test the hypothesis of statistical equality among a set of population means, which is a superior option to the t-test due to the increased probability of committing a type I error when using it for comparing multiple means, as stated by Mohr.1 To validate the ANOVA analysis, assumptions such as additivity of treatment and environmental effects, independence, homoscedasticity of variances, and normality of experimental errors need to be satisfied, as pointed out by Cochran.2 Data transformations can be applied to validate the analysis when these assumptions are unmet.

Initially proposed by Edgeworth3 and referred to as the Translation Method, data transformations emerged from the need to relate observed distributions to the normal distribution. According to Bartlett,4 the usual purpose of transformation is to change the scale of measurements to make the ANOVA analysis valid. However, a transformation is successful only if it satisfies the requirements of variance homogeneity, additivity structure, and error normality through the same transformation, as stated by Atikinson.5

After any transformation, verifying whether it has improved the data distribution is essential, as highlighted by Quinn and Keough.6 Besides that, data transformation provides an accessible solution to avoid non-normal error distributions, as stated by Pierre et al.,7 allowing for easy analyses by applying linear models. However, researchers must exercise caution when using transformations, as they can have contrary effects, Rupert.8

Despite frequently using data transformations in scientific literature, they receive criticism from theoretical and practical perspectives, Oliveira et al.9 One of the main criticisms of data transformations is the potential to alter the interpretation of results, Box and Cox.10 According to these authors, data transformation can change the focus of the study, leading to different conclusions than those obtained from the original data. Additionally, some transformations may not be readily interpretable, hindering the communication of results due to the transformed scale. Another criticism is that transformations can affect the robustness of ANOVA, resulting in false positives or negatives, Hocking.11 Therefore, carefully considering the implications of any data transformation before applying it in a variance analysis is crucial.

Due to the large volume of studies in agrarian sciences that conduct variance analyses and can make use of various data transformations to validate them, a systematic literature review is a valuable approach to identifying subject trends and determining whether there is proper utilization of transformation techniques to ensure reliable and valid results of variance analysis. According to Khan,12 a systematic review involves systematically collecting and examining published works to extract relevant statistics and information from the selected studies. On the other hand, meta-analysis is the quantitative aspect of synthesizing the analyzed works, allowing for a numerical summary of the observed results.

In this context, we conducted a systematic literature review of published works in agrarian sciences that employ data transformations to validate variance analyses. We performed a detailed analysis of various publications that utilized this technique to identify the most common transformations adopted by the scientific community and their motivations, providing an overview of data transformation practices in agrarian sciences. This study also identified shortcomings and misconceptions associated with applying this method. The results of the analyzed sample revealed an inadequate application of the technique by the scientific community, highlighting the need for enhanced methodological rigor in such analyses by researchers.

In the process of establishing an overview of data transformation practices in agrarian sciences through a systematic review, we adapted the PRISMA screening method to enable keyword searches within the full text of articles. We provided detailed descriptions of our adaptation to facilitate research for those conducting systematic reviews, especially when the relevant information is located within the main text of the article but not in the abstract or title.

2. Methods

2.1 Data collection

The systematic literature review process adopted in this study followed the guidelines of PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses), developed by Moher et al.13 These guidelines describe the stages of identification, screening, eligibility, and inclusion, ensuring the results’ validity and reliability.

In the identification stage, studies of interest are located in the databases, followed by selecting and classifying works based on titles and abstracts in the screening stage. In the eligibility stage, we evaluate the full text of the selected articles from the previous stage. In the inclusion stage, relevant information is systematically extracted based on predefined topics.

However, our methodology adapted to these guidelines in the screening phase. Instead of analyzing only the articles’ abstracts, we downloaded the selected articles in the identification stage. We searched for specific terms in the full text of these works to select the articles that would proceed to the eligibility and inclusion stages. This strategy was employed because crucial information about the transformations is sometimes present in the abstracts, title, and methodology. This way, the information of interest would be noticed.

2.1.1 Identification stage

To identify articles in the field of agricultural sciences that have conducted variance analyses, we conducted comprehensive searches on academic platforms such as Scopus and Web of Science, using keywords such as “variance analysis,” “analysis of variance,” and “ANOVA.” We narrowed our search to articles published exclusively in English, the global language of academia and research. This approach ensures a uniform and accessible foundation for the chosen studies.

Due to the absence of specific filters for agricultural sciences in the platforms used, we employed different refinement approaches for each platform. In Scopus, under the “subject area” tab, we filtered by “Agricultural and Biological Sciences,” excluding journals unrelated to agricultural sciences. In Web of Science, under the “Web of Science Categories” tab, we filtered by “Agronomy,” “Agriculture Dairy Animal Science,” “Agriculture Multidisciplinary,” “Agricultural Engineering,” and “Agricultural Economics Policy.” The last search for each source was conducted on May 14th.

2.1.2 Screening stage

Due to the high quantity of files to be downloaded and analyzed, we only worked with open-access files. We exported these files in the RIS format to Rayyan, a web application developed by the Qatar Computing Research Institute for systematic reviews. We organized the files according to the publication year and manually excluded duplicates to prevent unnecessary file downloads.

We utilized the “pyautogui,” “openly,” and “pandas” libraries to develop a Python automation that downloads the files in pdf format directly from Scopus and Web of Science platforms. The ones not downloaded through automation were obtained manually.

Subsequently, we employed the “pypdf4” library to develop a Python search code to search for the terms “data were transformed,” “transformation of the data,” and “data transformation” within the full texts of the works, aiming to reduce the number of articles required for reading and analysis.

Python is freely available software accessible at https://www.python.org/, and the Python code can be found at https://github.com/ghscosta/data-transform for anyone interested in replicating the procedures outlined in this article.

2.1.3 Eligibility and inclusion stages

During the eligibility stage, two reviewers examined the complete texts of the articles resulting from the screening process and extracted relevant information in the inclusion phase. We carried out these two stages simultaneously. From the articles that underwent the initial filtering process, we collected the following information: reference number for article identification, title, journal, year of publication, authors, utilization of analysis of variance in the methodology, employed design, verification of ANOVA assumptions, type of applied transformation, rationale for the adoption of the transformation, re-evaluation of assumptions after data transformation, scale of interpretation for results, study element in the experiment, and impact factor of each journal. The description of each variable can be accessed in Table 1, available at https://rpubs.com/JhenniferNascimento/table and https://zenodo.org/records/10757759. We discarded articles that did not provide this information and considered only those containing the pertinent details for the descriptive analysis.

2.2 Descriptive analysis

To present the collected data and potential relationships among variables, we employed bar graphs, pie charts, and Sankey diagrams for representing and analyzing the information obtained from the sampled articles. We manually tabulated the data, and a concise summary is provided in our extended data, accessible in Table 2 at https://rpubs.com/JhenniferNascimento/table and https://zenodo.org/records/10757759.

Pie and bar charts were used to illustrate the eligibility criteria for determining the inclusion of studies in each synthesis, along with the percentages of discarded and included studies. Sankey diagrams were employed to depict key variables and elucidate potential relationships among them.

3. Results

3.1 Data Collection

3.1.1 Identification stage

The search for the terms “variance analysis,” “analysis of variance,” and “ANOVA,” which we conducted on the Web of Science and Scopus platforms, resulted in retrieving 8,460 files on the former and 8,6958,695 on the latter. Out of this total, 3,6153,615 files from Web of Science and 3,5293,529 from Scopus were available in open access. Consequently, during the identification stage, we obtained a combined set of 71447144 articles published between 1961 and 2023 from both platforms.

3.1.2 Screening stage

After the removal of duplicates, 6,0776,077 articles remained for downloading. We downloaded 5,0325,032 articles through automation, leaving 1,0451,045 for manual download. Despite applying the open access filter on both platforms, we could not access 5252 of the articles earmarked for manual downloading, resulting in a total of 6,0256,025 articles successfully downloaded.

By searching for the terms “data were transformed,” “transformation of the data” and “data transformation” within the full text of the 6,0256,025 articles, we narrowed down the number of articles requiring scrutiny from 6,0256,025 to 565565 for analysis in the upcoming stages.

3.1.3 Eligibility and inclusion stages

We read and collected relevant information from 565565 articles, resulting from the previous stages. Among these, 506506 articles were discarded, with details about the discards presented in the descriptive analysis. We effectively collected information from only 5959 articles relevant to our search.

Some of the tabulated articles conducted more than one experiment in their work or used more than one transformation, thus leading to more than one variance analysis. Each distinct experiment and transformation were treated as separate observations to ensure correct counting. As a result, the sample of 5959 articles generated 7070 tabulated observations. The study characteristics are presented in Table 2, available at https://rpubs.com/JhenniferNascimento/table.

3.2 Descriptive analysis

Figure 1 presents the quantities of articles discarded and included for tabulation, where the stacked bars visually show the total of 506506 and 5959 articles discarded and included in the final sample, respectively. On the other hand, the first pie chart presents the reasons used for the discard, and the second one shows the transformations used for the validation of the analysis of variances.

Figure 1. A descriptive analysis of the included and discarded articles, considering the field of study of the works and the types of transformations found in them.

Download as a PowerPoint slide

In the first circular sector, it is evident that we discarded approximately 78%78% of the articles from fields like medicine, engineering, psychology, and physical education because they were outside the field of agrarian sciences. We discarded approximately 15%15% of the articles for not containing variance analysis, 4.55%4.55% for not using data transformation, and just over 1%1% were books and, therefore, incompatible with the inclusion criteria.

In the second circular sector of Figure 1, which relates to articles with relevant information for our study published between 1994 and 2022, we observed five types of transformations. These include logarithmic, square root, Box-Cox, power, and arcsine transformations, used to validate variance analysis in experiments involving crops such as corn, rice, passion fruit, and others, as illustrated in Figure 2. We grouped categories with only one occurrence as “other” for the “study element” variable.

Figure 2. A Sankey diagram representing the relationship between the transformations used in the evaluated studies and the study elements of the experiments.

In the “Other” category, we have study elements that had only one occurrence in the sample.

Download as a PowerPoint slide

In addition to examining the relationship between the study elements of the experiment and the transformations used, we investigated using Figure 3 to explore the interactions and connections among the transformations. We also verified assumptions, assessed the motivation for employing these transformations, considered the interpretation scale, and reevaluated the assumptions of analysis of variance after applying the transformation.

Figure 3. Sankey diagram illustrating the relationships between the transformations used, the verification of assumptions (N for normality, H for homogeneity of variances, N+H for normality and homogeneity of variances, and N+H+I for normality, homogeneity of variances, and independence), the motivation for using these transformations, the scale of interpretation, and the re-verification of assumptions.

Download as a PowerPoint slide

As a result, Figure 3 highlights that transformations were applied within the final sample with (55.71%55.71%) and without (44.28%44.28%) the verification of analysis of variance assumptions. Among the sampled studies that checked the assumptions, 66.66%66.66% verified at least one of the three assumptions (normality, homogeneity, and independence of residuals) before applying the transformation, while 33.33%33.33% mentioned the verification of assumptions but did not specify which the checked assumption.

Among the observed transformations in the sample (as illustrated in Figure 3), logarithmic (28.57%28.57%), arcsine (21.42%21.42%), and square root (20%20%) transformations were the most used, regardless of whether checked assumptions. At the same time, 18.57%18.57% did not specify the transformation used. The remaining 11.44% refer to articles that utilized power and Box-Cox transformations.

Figure 3 also reveals the presence of articles that did not verify assumptions, did not specify the transformation used, did not record the rationale behind the choice of transformation, and did not report whether the meted assumptions of analysis of variance after the application of the transformation. Only 5.71%5.71% of the studies conducted verification of normality, homogeneity, and independence of residuals assumptions and adopted transformations with plausible justifications and motivations, illustrating the technique’s incomplete and potentially incorrect application in 94.28%94.28% of the considered studies.

Finally, Figure 3 also provides relevant information regarding the interpretation approach adopted in the studies. Most articles interpreted their results on the transformed scale, considering the data after applying transformations. However, some studies mentioned inverse transformation to revert the data to the original scale before interpretation, which is an incorrect practice. As for the reevaluation of assumptions after the implementation of transformations, most studies did not mention this step.

4. Discussion

4.1 Data collection

Executing the steps proposed by PRISMA (identification, screening, eligibility, and inclusion), with the implemented adaptations, presents an innovative approach to searching and selecting articles for this study. The direct search for the terms of interest in the full text represented a bold strategy, one that could potentially serve as a valuable technique for future systematic reviews, particularly when researchers seek information that may not be explicitly stated in the title or abstract, as was the case in our study.

The screening phase, implemented with automated article downloading and the search for terms in the complete text, programmed in the Python language, efficiently directed us to the most relevant articles with minimal manual effort required. Although some articles required manual downloading, we significantly reduced the overall effort.

During the eligibility and inclusion phases, we identified and selected articles that reported essential information about the implementation of data transformations to validate the analysis of variance. We notice that many of these studies did not unsurprisingly document several relevant pieces of information.

4.2 Descriptive analysis

As depicted in Figure 1, a large portion of the articles was discarded, which is common in systematic literature reviews, as pointed out by Gerstner.14 According to the authors, essential information is often omitted in scientific papers, leading to the exclusion of these studies during the systematic review or meta-analysis stage. In our study, only 10%10% of the sample provided the information of interest, with the majority of exclusions occurring because they were unrelated to the agrarian sciences field. This result was surprising since we expected to obtain a more representative sample of the field due to the filtering criteria employed on the platforms.

When examining the transformations employed in the studies concerning the analysed elements in the experiments (as exemplified in Figure 2), no specific pattern emerged that linked a particular type of element to a specific transformation. By expanding the sample, it is conceivable that we may eventually discern a relevant pattern between the types of elements used in experiments and their interaction with specific transformations.

Regarding the interactions and connections of the variables presented in Figure 3, concerns arise about the validity of the analyses conducted in studies where 55%55% of the sample did not verify essential assumptions (normality, homogeneity, and independence of residuals) and opted for data transformations. The practice of transforming data without first determining whether it is necessary for the analysis compromises the interpretation and reliability of the results obtained.

On the other hand, the finding that 2626 out of 3939 articles that effectively assessed at least one of the three assumptions before applying transformations (equivalent to 66.66%66.66%), representing only 37.14%37.14% of the total sample (of 7070 articles), raises questions about the awareness and statistical rigor of authors in handling such data analysis. In contrast, the 33.33%33.33% of articles mentioning assumption verification without specifying which ones indicate a need for more transparency in statistical analysis practices.

The distribution of data transformations in the sample draws attention to the prevalence of logarithmic, arcsine, and square root transformations, regardless of assumption verification. However, the omission of transformation cases raises concerns about research transparency and reproducibility, underscoring the need for comprehensive documentation of methods to ensure accurate evaluation and replicability.

The finding that only a tiny portion of the studies adopted transformations with plausible justifications after verifying the assumptions of normality, homogeneity, and independence of residuals, coupled with the presence of studies that did not verify assumptions, did not mention transformations used and did not document justifications for their choices, raises questions about the statistical rigor of authors in conducting such analyses. It highlights the need for greater statistical rigor within the academic community and more explicit guidelines for conducting robust and transparent statistical analyses, which ensure reliable and meaningful results for advancing research.

Furthermore, the highlighted findings also raise essential considerations about academic journals’ peer review and publication process. The journal with the highest impact factor in the sample includes one of the articles that did not verify statistical assumptions, omitted details about applied transformations, and failed to document the rationale behind their choices. Accepting works with such characteristics impacts the quality of scientific literature and compromises the integrity of presented results and the correct interpretation of conclusions.

Therefore, readers of these works often need more evidence to determine the reliability of the executed analysis and the result’s veracity, having to rely on the content presented without the opportunity to develop their conclusions based on the analyses. It shows the importance of a complete approach in describing the procedures used in scientific works that are published and that journals need to be more careful, especially when it comes to implementing this methodology that is so old and used.

Regarding aspects related to result interpretation and the methodological approach adopted in the studies in our sample, the observation that most articles chose to interpret their results on the transformed scale points to an ordinary and correct practice in the literature. However, returning the data to its original scale before interpretation raises a discussion about the validity of this approach, as it can distort the correct interpretation of results and potentially lead to erroneous conclusions. For the articles interpreted in both scales, those made an unnecessary effort. Interpreting must always occur on the transformed scale.

Finally, another relevant point is the lack of mention of reevaluating assumptions after applying transformations. It raises questions about researchers’ awareness of the importance of verifying whether the assumptions of analysis of variance are met even after data transformation. Omitting this step can compromise the reliability and validity of conclusions. The documentation and detailed description of methods used in all scientific research is crucial, especially in the field of agricultural sciences, which was the focus of our study.

5. Conclusions

We introduced a novel approach to screening systematic literature reviews, which combines downloading and searching for the terms of interest directly within the full-text articles. This technique proves valuable, mainly when research of interest is not readily available in titles or abstracts.

The descriptive analysis of transformations used in the articles revealed the prevalence of logarithmic, arcsine, and square root transformations. It became evident that verifying assumptions before applying transformations was only consistently conducted in some cases, emphasizing the need for a more detailed and consistent approach in research planning and reporting procedures.

Interpreting results on the transformed scale was the most common approach, although some studies adopted reverse transformations to return data to the original scale. However, the omission of analysis details underscores the need for greater clarity and consistency in documenting the procedures employed.

Given our focus on the field of agricultural sciences and the identified inconsistencies in the technique’s application, questions arise regarding the appropriate use of this method in other areas of knowledge.

Data availability

Underlying data

All underlying data are available as part of the article and no additional source data are required.

Extended data

Zenodo: Extended data for ‘Statistical data transformation in agrarian sciences for variance analysis: a systematic review’, https://doi.org/10.5281/zenodo.10519177. 15

Reporting guidelines

Zenodo: PRISMA checklist and flow diagram for ‘Statistical data transformation in agrarian sciences for variance analysis: a systematic review’, https://doi.org/10.5281/zenodo.10758186. 16

Data are available under the terms of the Creative Commons Attribution 4.0 International Public License (CC-BY 4.0 International).

Software availability

Source code available from: https://github.com/ghscosta/data-transform/tree/v0.2.

Archived software available from: https://doi.org/10.5281/zenodo.10519177. 15

License: GNU General Public License v3.0.

References

  • 1. Mohr DL, Wilson WJ, Freund RJ: Statistical methods. 4th ed.Chennai: Academic Press; 2021.
  • 2. Cochran WG: When the assumptions for the analysis of variance are not satisfied. Biometrics. 1947; 3(1): 22–38. Publisher Full Text
  • 3. Edgeworth FY: A suggestion for using powerful and informative tests of normality. R. Stat. Soc. 1898; 61(3): 534–544.
  • 4. Bartlett MS: The use of transformations. Biometrics. 1947; 3(1): 39–52. Publisher Full Text
  • 5. Atikinson AC: Plots, transformations, and regression. 1st ed.USA: Oxford Science Publication; 1985.
  • 6. Quinn GP, Keough MJ: Experimental design and data analysis for biologists. 1st ed.New York: Cambridge University Press; 2002.
  • 7. Pierre AP, Shikon V, Schneider DC: Count data in biology – Data transformation or model reformation? Ecol. Evol. 2018; 8(6): 3077–3085. PubMed Abstract Publisher Full Text Free Full Text
  • 8. Rupert D: Statistical analysis, special problems of transformations of data. Soc. Behav. Sci. 2001; 20(1): 15007–15014.
  • 9. Oliveira JPR, Santana DG, Pereira VJ, et al.: Data transformation: an underestimated tool by inappropriate use. Acta Scientiarum. 2018; 40(1): 35300–35311. Publisher Full Text
  • 10. Box GEP, Cox DR: An analysis of transformations. J. R. Stat. Soc. 1964.11; 26(2): 211–243. Publisher Full Text
  • 11. Hocking RR: The Analysis and Selection of Variables in Linear Regression. Biometrics. 1976; 32(1): 1–49. Publisher Full Text
  • 12. Khan S: Meta-analysis: methods for health and experimental studies. 1st ed.Springer; 2020.
  • 13. Moher D, Liberati A, Tetzlaff J, et al.: Preferred reporting items12for systematic reviews and meta-analyses: The PRISMA Statement. PLoS Med. 2009; 6: e1000097. PubMed Abstract Publisher Full Text Free Full Text
  • 14. Gerstner K, Mateos DM, Gurevitch J, et al.: Will your paper be used in a meta-analysis? Make the reach of your research broader and longer lasting. Methods Ecol. Evol. 2017; 8: 777–784. Publisher Full Text
  • 15. Nascimento JS, Silva JF, Bernardes RC, et al.: Statistical data transformation in agrarian sciences for variance analysis: a systematic review [data and code].2024.
  • 16. Nascimento JS, Silva JF, Bernardes RC, et al.: Statistical data transformation in agrarian sciences for variance analysis: a systematic review [reporting guidelines].2024.