11En raison du succès des artistes post-Internet, on commence à voir le champ de l’art des nouveaux médias essayer d’intégrer le marché de l’art en s’inspirant des formats de la galerie commerciale de type white cube , des foires d’art et des biennales.
Les artistes des nouveaux médias, qui se sont positionnés traditionnellement à l’écart ou en opposition au marché de l’art, s’y engagent désormais activement. Il y a là un désir de gagner une reconnaissance historique, puisque le monde de l’art est plus ouvert aux nouvelles tendances technologiques. /
Économie ?
Dans le contexte d’une économie d’après crise, il devient également nécessaire pour les artistes d’intégrer le marché de l’art au moment où les financements publics disparaissent et où les institutions sont de plus en plus privatisées.
19 Ashley Wong, « Ars Electronica Festival 2017 : Intersections de l’art médiatique et du marché de l’art », Sedit (…)
20 Pour plus d’informations sur le marché de l’art numérique et les galeries, voir la thèse de Pau Wae (…)
21 James Miller, « Le secteur Focus de l’Armory Show s’intéresse au corps et à la technologie », The Art Newspaper , 1 (…)
Festivals ?
12Plusieurs festivals historiques spécialisés dans l’art des nouveaux médias s’inspirent désormais des pratiques du marché de l’art. Le festival Elektra de Montréal est à l’origine de la Biennale internationale des arts numériques aux côtés de la Biennale Némo de Paris et les deux alternent une année sur deux.
Il y a aussi le cas du festival Ars Electronica, qui a présenté pour la première fois en trente-huit ans d’existence une section de « galeries », ainsi qu’un colloque consacré à l’Art des nouveaux médias face au marché de l’art. ‘art, afin d’explorer les nouvelles intersections de ces domaines 19 .
Il existe aussi un nombre important de galeries commerciales spécialisées dans la promotion des travaux réalisés par des artistes des nouveaux médias.
Galeries ?
Quelques galeries sont installées depuis longtemps, comme la DAM Gallery de Berlin, fondée en 1998, et bitforms, fondée en 2001 à New York, sont désormais rejointes par la Galerie Charlot de Paris, fondée en 2011.
la galerie Transfer de New York, fondée en 2013 et la NOME Gallery de Berlin, fondée en 2015 – toutes avec des conceptions différentes de leur programmation 20 .
Beaucoup de ces galeries ont leurs racines dans l’art des nouveaux médias et elles sont de ce fait largement conservées dans les marges du marché de l’art.
Historiquement, il y a eu des expositions satellites à la Biennale de Venise, telle que le Pavillon Internet initié par l’artiste des nouveaux médias Miltos Manetas en 2009.
L’Armory Fair de New York a accueilli en 2018 une section spéciale consacrée au corps et à la technologie 21 . Ces biennales et sections au sein de foires d’art restent cependant assez marginales par rapport au marché de l’art dominant.
22 Phillips, « Michael Staniak, IMG_885 (holographic), Lot 7 », résultat de vente aux enchères, Londres (…)
13Ces dernières années, nous avons également assisté à l’émergence de foires d’art dédiées spécifiquement à l’art des nouveaux médias, particulièrement l’Unpaint Art Fair, la Plug-In Media Art Fair qui fait partie de Contemporary Istanbul et les Variation. Media Art Fair, Moving Image Art Fair ou encore Silicon Valley Art Fair.
Vente aux enchères ?
Il y a aussi des ventes aux enchères, dont Philips Paddles ON ! qui s’est positionnée comme la première vente aux enchères d’art numérique et qui s’est tenue à New York et Londres en 2013 et 2014.
Les ventes aux enchères ont présenté principalement de l’art post-Internet, sous la forme de sculptures, impressions numériques et installations, le tout étant organisé par Lindsey Howard.
L’œuvre la plus chère, qui s’est vendue à 25 000 livres (avec une estimation préalable de 3 500-4 750 livres) était une œuvre de Michael Staniak/22 22 , ce qui contraste avec les centaines de milliers de livres que rapporteur l’art contemporain et la peinture d’après-guerre.
Foire d’art ?
14Un grand nombre de foires d’art des nouveaux médias et de ventes aux enchères spécialisées ont néanmoins disparu rapidement. Il n’y a plus de ventes aux enchères de Paddles ON ! et l’Unpainint Art Fair s’est rétréci après une première année ambitieuse, devenant davantage une exposition thématique qu’une foire commerciale.
La Variations Art Fair de Paris qui utilise le mot « foire » prend plutôt la forme d’une exposition thématique organisée par le curateur d’art des nouveaux médias Dominique Moulon.
Bien que les œuvres soient à vendre, ce n’est pas le but de l’exposition et les travaux sont présentés dans une exposition ouverte plutôt que dans des stands.
Les biennales d’art numérique ont tendance à mettre côte à côte des artistes contemporains bien établis et des artistes des nouveaux médias afin d’augmenter la valeur de ces derniers dans un contexte artistique reconnu.
Il y a là une tendance à se conformer aux pratiques dominantes du monde de l’art afin de gagner de la valeur et de la validation.
15Les galeries d’art contemporain s’intéressent d’ailleurs de plus en plus à l’art des nouveaux médias, y compris la Pace Gallery – qui représente le collectif japonais teamLab – et la Lisson Gallery – qui représente Haroon Mirza, Tony Oursler et Cory Arcangel.
La taille de ces galeries permet de construire une reconnaissance pour ces artistes en compensant leurs coûts par des artistes qui travaillent dans des médias plus traditionnels.
Une petite leçon d’histoire s’impose avant d’adopter cette tendance déco. En grec, la céramique, « keramos », signifie argile. Le terme de céramique désigne l’ensemble des objets fabriqués en terre qui ont subi une transformation physique irréversible au cours d’une cuisson à température plus ou moins élevée. Elle possède ainsi des caractéristiques différentes selon la nature de ses composants et la température de cuisson.
On distingue deux catégories de céramiques :
Les céramiques poreuses
La terre cuite : Elle s’obtient par la cuisson de l’argile, à basse température. Sa coloration rouge, orangée ou brune est due à la présence d’oxyde de fer dans la pâte.
Elle est surtout utilisée pour réaliser des sculptures, poteries et autres objets décoratifs mais peut également servir pour l’élaboration de briques ou tuiles. Son aspect brut et artisanal et sa jolie couleur ocre séduisent les fans de décoration qui veulent apporter une touche chaleureuse à leur intérieur.
La faïence Poreuse, opaque et fragile, la faïence constitue une poterie à fond blanc à base d’argile émaillée ou vernissée.
Il existe plusieurs types de faïence : la faïence plombifère à base de plomb, la faïence stannifère à base d’oxyde d’étain et la faïence fine réalisée avec une argile choisie pour la grande qualité de sa blancheur. Principalement plébiscitée dans la confection de vaisselle et de carreaux de crédence, elle s’adapte à tous les styles de déco : vintage, scandinave, moderne ou encore baroque.
Les céramiques vitrifiées
Le grès Le grès est une argile cuite et émaillée à base d’une argile à très forte teneur en silice. Il subit une deuxième cuisson à haute température qui le rend extrêmement dur et résistant et qui permet l’auto-vitrification de la terre et la fixation de l’émail.
Cette matière artisanale à l’aspect brut et rustique se prête aux formes simples et se décline le plus souvent dans des tonalités sourdes comme le beige, le gris ou le noir.
Incontournable au rayon art de la table, il s’intègre parfaitement dans la décoration pour une déco zen et minimaliste.
La porcelaine La porcelaine est une céramique fine et translucide, à base de kaolin. Elle nécessite une cuisson en deux temps et se vitrifie, ce qui la rend solide et résistante malgré sa finesse. Délicate et élégante, la porcelaine s’invite à notre table avec raffinement.
Deux visites de musées – hors du Morbihan -vous sont proposées en lien avec cet article : https://www.sevresciteceramique.fr – Sèvres / Ile de France https://museedelaceramique.fr – Rouen / Normandie Que ce soit une promenade virtuelle ou un déplacement physique, vous ne serez pas déçu de découvrir la richesse de ces pièces qui font partie de notre patrimoine. A découvrir sans modération.
La sculpture est une activité artistique qui consiste à concevoir et réaliser des formes en volume, en relief, soit en ronde-bosse (statuaire), en haut-relief, en bas-relief, par modelage, par taille directe, par soudure ou assemblage. Le terme de sculpture désigne également l’objet résultant de cette activité.
Le mot sculpture vient étymologiquement du latin « sculpere » qui signifie « tailler » ou « enlever des morceaux à une pierre »1. Cette définition, qui distingue « sculpture » et « modelage », illustre l’importance donnée à la taille de la pierre dans la civilisation romaine. Au xe siècle, on parle d’« ymagier » et la plupart du temps, le travail du sculpteur est un travail d’équipe avec un maître et des tailleurs de pierre, comme il est traité dans l’art roman et l’architecture romane. Plusieurs équipes travaillent simultanément sur les grands chantiers des cathédrales.
Histoire
Les plus anciennes sculptures réalisées par l’homme et ayant traversé le temps sont de petites figurines rudimentaires taillées, en pierre ou en os2, qui servaient probablement à des pratiques magiques, d’ex-voto, d’échanges, de rituels qui permettaient de réaliser des transactions avec des forces surnaturelles ou sociales. La Vénus de Lespugue, sur ivoire de mammouth, en est un bel exemple. Certaines sculptures de taille plus imposante ont survécu aux millénaires qui nous séparent de leur créateur comme les bisons d’argile crue retrouvés dans la grotte du Tuc d’Audoubert en Ariège, les bas reliefs de l’abri sous roches du Roc-aux-Sorciers dans la Vienne ou les monolithes sculptés de Göbekli Tepe en Turquie. Il est probable que des objets modelés, en terre, ont aussi existé, mais en l’absence de techniques de pérennisation (cuisson), cela reste une hypothèse. D’autres sculptures, comme celles du Roc-aux-Sorciers, représentent des animaux sauvages, sans doute des représentations de l’alimentation des peuples de chasseurs-cueilleurs du Magdalénien.
Techniques
Pour créer une œuvre, plusieurs manières peuvent être envisagées, voire combinées entre elles.
Le modelage : L’idée de modelage fait tout de suite penser à la pâte à modeler que l’on travaille si facilement avec les doigts. C’est la technique la plus primitive et la plus directe de mise en forme d’un solide plastique, en l’occurrence la terre ou argile (grès, porcelaine ou faïence). Le modelage en terre n’a cessé d’être pratiqué au fil des siècles. Dans un bon nombre de cas, il a permis au sculpteur de préciser sa pensée. Il a rarement eu un caractère définitif à cause de sa fragilité, mais à partir de la Renaissance, il se voit attribuer un caractère privilégié puisque le sculpteur exécute tous ses modèles en terre et donne à reproduire ses œuvres à des mouleurs, fondeurs ou praticiens (agrandisseurs). Beaucoup d’artistes modernes, en quête de nouveauté, emploient pour leurs créations des matériaux inattendus : des tôles, des pièces métalliques et même des matières plastiques. La méthode consiste à ajouter ou retirer de la matière autour d’un ou plusieurs centres qui deviendront « l’âme » de la sculpture. Cette technique du modelage s’applique aux matériaux dits « plastiques », c’est-à-dire susceptibles de se déformer de façon réversible sous l’effet de forces minimes (l’argile, la cire, le plâtre et des pâtes à modeler diverses). À tout moment, de la matière peut être retirée ou ajoutée, les « repentirs » sont permis (jusqu’à un certain point, cependant). La souplesse du matériau permet d’enregistrer les impressions les plus fugitives avec une liberté totale. La limitation principale du matériau réside dans sa résistance souvent assez faible. Le séchage lent de la sculpture est l’étape suivante pour l’argile et le plâtre, le refroidissement pour la cire et la cuisson pour l’argile sèche.
La taille, dont le principe est de soustraire, à l’aide d’un outil percuté par un galet (préhistoire) ou une massette, des éclats dans une matière dure pour dégager de sa gangue une forme : il existe deux techniques fondamentales de taille pour sculpter la pierre ou le bois : la taille directe, sans croquis préalable ni modèle et qui tient compte de la forme originelle du bloc pour faire émerger une forme imaginée par le sculpteur, et la taille avec mises aux points, qui recopie fidèlement un modèle à partir de mesures exactes.
L’assemblage (voire l’appareillage3) consiste, dans une sculpture, à en assembler les éléments. Cela peut se faire par tenon et mortaise, ou cheville, boulon, rivet, soudage , etc.) dans le même matériau ou dans des matériaux différents (la statue chryséléphantine de Zeus à Olympie était en bois, ivoire, or , etc.). Mais il peut s’agir d’objets divers (naturels ou fabriqués, qu’ils soient neufs, vieux, objets du quotidien, etc.). Ces objets peuvent être assemblés avec des parties obtenue par la taille ou d’autres moyens, comme c’est le cas dans certaines sculptures d’Afrique centrale. Toutes ces parties mises ensemble parviennent à former une sculpture unique, dont la somme dépassera la valeur esthétique des éléments séparés.
La stéréolithographie, ou prototypage rapide, permet de créer un volume d’après des données informatiques créées ex nihilo ou scannées d’après un modèle réel en trois dimensions4.
La sculpture numérique ou virtuelle permet de sculpter un volume virtuel, sans passer par une phase « plan ». Quelques logiciels libres permettent ainsi de modeler un objet virtuel par des fonctions simples permettant d’étirer, creuser, aplatir, lisser, colorer une forme tridimensionnelle, un peu comme on le ferait avec de la pâte à modeler (Sculptris5 par exemple), sur ordinateur. Une imprimante 3D permet éventuellement de la transformer en objet réel.
Techniques
Le modelage : Jean-Antoine Houdon modelant le buste de Bonaparte Premier Consul, vers 1802-1803. Boilly Louis Léopold (1761-1845), huile sur toile.
L’assemblage: Jean Tinguely devant son atelier avec un assemblage en cours. 1963. Photo Erling Mandelmann
Sculpture moderne
La sculpture moderne et contemporaine utilise encore ces matériaux, mais également le verre et les miroirs, des matériaux bruts, la glace et l’eau, les cristaux liquides et d’autres matériaux fabriqués par l’homme, tels que les matières plastiques, et en particulier les PMMA (polymétacrylate de méthyle) connus sous des noms déposés comme Plexiglas ou Altuglas, ainsi que n’importe quel objet trouvé. Le papier mâché est également un matériau extrêmement économique, et les techniques de réalisation de sculptures avec ce matériau sont simples à mettre en œuvre.
L’utilisation du chocolat n’est pas exclue. Par ailleurs, le monde de la cuisine se plaît à créer ce qui ressemble à de la sculpture, par jeu.
Dans ses derniers écrits, Joan Miró affirmait qu’à l’avenir, on pourrait imaginer des sculptures utilisant les gaz comme matériaux. Lui faisant écho, Louis Leygue, dans son discours de réception de Nicolas Schöffer à l’Académie des beaux-arts, définissait ainsi la sculpture :
« La sculpture peut se réaliser selon trois procédés : celui qui consiste à prélever la matière dans un bloc compact, celui qui consiste à façonner une matière molle pour créer des formes, enfin celui qui consiste à fabriquer ce que l’on veut réaliser. »
On assiste ainsi, avec la multiplication des musées et des publications savantes, à une redécouverte de matériaux oubliés au fil des siècles.
Si certains métaux, comme l’or, ont fasciné les hommes c’est que cette matière jouait avec la lumière. Le poli idéal que recherchait Brancusi se joue aussi de la lumière dans les photographies qu’il a réalisées de ses propres sculptures9. La lumière est une qualité de certains « matériaux ». De même, lorsqu’un sculpteur réalise une fontaine, l’eau est partie prenante des « matériaux » avec lequel il doit travailler, et même le mouvement qui est donné à l’eau. Le mouvement est alors une qualité du matériau « eau ». Jean Tinguely a su introduire le rapport entre ses assemblages d’objets de rebut, leurs mouvements heurtés et l’eau en mouvement avec les sons que la sculpture produit.
Après László Moholy-Nagy (Modulateur Espace Lumière, 192910), Nicolas Schöffer et bien d’autres artistes tels Marta Pan, ont été intéressés par les rapports de l’architecture et de la sculpture. Les deux premiers considérant la lumière comme un matériau autant que le mouvement. Marta Pan a réalisé ainsi des sculptures monumentales intégrées dans l’architecture des espaces publics et urbains, comme La Perspective dans le parc des Sources de la Bièvre à Guyancourt11. Nicolas Schöffer souhaitait réaliser une « Tour Lumière Cybernétique » en 1963, en interaction avec le quartier de La Défense, à Paris. L’espace, dont la qualité est d’être habité, pour Nicolas Schöffer, est un matériau au même titre que le mouvement qui anime ses sculptures12.
Les artistes du Land art ont, pour leur part, souhaité sortir des galeries d’art et des musées, avec les conventions et contraintes que cela supposait, tout en réalisant ou en nous montrant des « sculptures » qui rompent avec les traditions récentes. Les « matériaux » sont, ici, nombreux : matériaux naturels, comme la spirale en remblai de basalte / le Grand Lac Salé, dans Spiral Jetty de Robert Smithson (1970) où la dimension du temps est essentielle. Tandis que pour James Turrell, c’est encore la lumière, naturelle, dans des espaces généralement construits en pleine nature (le Roden Crater). L’échelle, souvent monumentale de ces sculptures, prend en compte le paysage où les œuvres s’inscrivent, et la dimension temporelle sur de longues durées : la spirale, en basalte noir, de Robert Smithson, était pensée comme soumise aux fluctuations du lac, la spirale noire se borde alors de sel blanc, jusqu’à sa disparition dans les eaux salées, pendant les périodes de hautes-eaux, et sa réapparition, toute blanche, quelques années plus tard.
In statistical analyses, a common practice for enhancing the validity of variance analysis is the application of data transformation to convert measurements into a different mathematical scale. This technique was first employed in 1898 by Edgeworth and remains relevant in current scientific publications despite the proliferation of more modern and advanced techniques that obviate the need for certain assumptions. Data transformations, when appropriately used, can make the model error terms approximate a normal distribution. It is also possible to use the technique to correct the heterogeneity of variances or to render an additive model, ensuring the validity of the analysis of variances. Given that this technique can be hastily applied, potentially leading to erroneous or invalid results, we conducted a systematic literature review of studies in the field of agrarian sciences that utilized data transformations for the validation of analysis of variances. The aim was to check the transformations employed by the scientific community, the motivation behind their use, and to identify possible errors and inconsistencies in applying the technique in publications. In this study, we identified shortcomings and misconceptions associated with using this method, and we observed incomplete and inadequate utilization of the technique in 94.28 % of the analysed sample, resulting in misguided and erroneous conclusions in scientific research outcomes.
Keywords
Data manipulation, Systematic literature review, Agricultural sciences, ANOVA, Descriptive analysisCorresponding author: Jhennifer NascimentoCompeting interests: No competing interests were disclosed.
Grant information: Coordination for the Improvement of Higher Education Personnel – Brazil (CAPES) – Finance Code 001, the Foundation for the Support of Research in the State of Minas Gerais (Fapemig) and GSC is supported by grant 2023/03917-4, São Paulo Research Foundation (FAPESP), Brazil.
There were no major differences between this version of the article and the previously published version. We emphasized the adaptation we made to the screening process of our systematic review, corrected a few typographical errors, and added the absolute values alongside the percentages in Figure 1. These changes aim to provide a clearer and more accurate presentation of our goals, findings, and methodology.
The analysis of variance (ANOVA) is a method used to test the hypothesis of statistical equality among a set of population means, which is a superior option to the t-test due to the increased probability of committing a type I error when using it for comparing multiple means, as stated by Mohr.1 To validate the ANOVA analysis, assumptions such as additivity of treatment and environmental effects, independence, homoscedasticity of variances, and normality of experimental errors need to be satisfied, as pointed out by Cochran.2 Data transformations can be applied to validate the analysis when these assumptions are unmet.
Initially proposed by Edgeworth3 and referred to as the Translation Method, data transformations emerged from the need to relate observed distributions to the normal distribution. According to Bartlett,4 the usual purpose of transformation is to change the scale of measurements to make the ANOVA analysis valid. However, a transformation is successful only if it satisfies the requirements of variance homogeneity, additivity structure, and error normality through the same transformation, as stated by Atikinson.5
After any transformation, verifying whether it has improved the data distribution is essential, as highlighted by Quinn and Keough.6 Besides that, data transformation provides an accessible solution to avoid non-normal error distributions, as stated by Pierre et al.,7 allowing for easy analyses by applying linear models. However, researchers must exercise caution when using transformations, as they can have contrary effects, Rupert.8
Despite frequently using data transformations in scientific literature, they receive criticism from theoretical and practical perspectives, Oliveira et al.9 One of the main criticisms of data transformations is the potential to alter the interpretation of results, Box and Cox.10 According to these authors, data transformation can change the focus of the study, leading to different conclusions than those obtained from the original data. Additionally, some transformations may not be readily interpretable, hindering the communication of results due to the transformed scale. Another criticism is that transformations can affect the robustness of ANOVA, resulting in false positives or negatives, Hocking.11 Therefore, carefully considering the implications of any data transformation before applying it in a variance analysis is crucial.
Due to the large volume of studies in agrarian sciences that conduct variance analyses and can make use of various data transformations to validate them, a systematic literature review is a valuable approach to identifying subject trends and determining whether there is proper utilization of transformation techniques to ensure reliable and valid results of variance analysis. According to Khan,12 a systematic review involves systematically collecting and examining published works to extract relevant statistics and information from the selected studies. On the other hand, meta-analysis is the quantitative aspect of synthesizing the analyzed works, allowing for a numerical summary of the observed results.
In this context, we conducted a systematic literature review of published works in agrarian sciences that employ data transformations to validate variance analyses. We performed a detailed analysis of various publications that utilized this technique to identify the most common transformations adopted by the scientific community and their motivations, providing an overview of data transformation practices in agrarian sciences. This study also identified shortcomings and misconceptions associated with applying this method. The results of the analyzed sample revealed an inadequate application of the technique by the scientific community, highlighting the need for enhanced methodological rigor in such analyses by researchers.
In the process of establishing an overview of data transformation practices in agrarian sciences through a systematic review, we adapted the PRISMA screening method to enable keyword searches within the full text of articles. We provided detailed descriptions of our adaptation to facilitate research for those conducting systematic reviews, especially when the relevant information is located within the main text of the article but not in the abstract or title.
2. Methods
2.1 Data collection
The systematic literature review process adopted in this study followed the guidelines of PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses), developed by Moher et al.13 These guidelines describe the stages of identification, screening, eligibility, and inclusion, ensuring the results’ validity and reliability.
In the identification stage, studies of interest are located in the databases, followed by selecting and classifying works based on titles and abstracts in the screening stage. In the eligibility stage, we evaluate the full text of the selected articles from the previous stage. In the inclusion stage, relevant information is systematically extracted based on predefined topics.
However, our methodology adapted to these guidelines in the screening phase. Instead of analyzing only the articles’ abstracts, we downloaded the selected articles in the identification stage. We searched for specific terms in the full text of these works to select the articles that would proceed to the eligibility and inclusion stages. This strategy was employed because crucial information about the transformations is sometimes present in the abstracts, title, and methodology. This way, the information of interest would be noticed.
2.1.1 Identification stage
To identify articles in the field of agricultural sciences that have conducted variance analyses, we conducted comprehensive searches on academic platforms such as Scopus and Web of Science, using keywords such as “variance analysis,” “analysis of variance,” and “ANOVA.” We narrowed our search to articles published exclusively in English, the global language of academia and research. This approach ensures a uniform and accessible foundation for the chosen studies.
Due to the absence of specific filters for agricultural sciences in the platforms used, we employed different refinement approaches for each platform. In Scopus, under the “subject area” tab, we filtered by “Agricultural and Biological Sciences,” excluding journals unrelated to agricultural sciences. In Web of Science, under the “Web of Science Categories” tab, we filtered by “Agronomy,” “Agriculture Dairy Animal Science,” “Agriculture Multidisciplinary,” “Agricultural Engineering,” and “Agricultural Economics Policy.” The last search for each source was conducted on May 14th.
2.1.2 Screening stage
Due to the high quantity of files to be downloaded and analyzed, we only worked with open-access files. We exported these files in the RIS format to Rayyan, a web application developed by the Qatar Computing Research Institute for systematic reviews. We organized the files according to the publication year and manually excluded duplicates to prevent unnecessary file downloads.
We utilized the “pyautogui,” “openly,” and “pandas” libraries to develop a Python automation that downloads the files in pdf format directly from Scopus and Web of Science platforms. The ones not downloaded through automation were obtained manually.
Subsequently, we employed the “pypdf4” library to develop a Python search code to search for the terms “data were transformed,” “transformation of the data,” and “data transformation” within the full texts of the works, aiming to reduce the number of articles required for reading and analysis.
During the eligibility stage, two reviewers examined the complete texts of the articles resulting from the screening process and extracted relevant information in the inclusion phase. We carried out these two stages simultaneously. From the articles that underwent the initial filtering process, we collected the following information: reference number for article identification, title, journal, year of publication, authors, utilization of analysis of variance in the methodology, employed design, verification of ANOVA assumptions, type of applied transformation, rationale for the adoption of the transformation, re-evaluation of assumptions after data transformation, scale of interpretation for results, study element in the experiment, and impact factor of each journal. The description of each variable can be accessed in Table 1, available at https://rpubs.com/JhenniferNascimento/table and https://zenodo.org/records/10757759. We discarded articles that did not provide this information and considered only those containing the pertinent details for the descriptive analysis.
2.2 Descriptive analysis
To present the collected data and potential relationships among variables, we employed bar graphs, pie charts, and Sankey diagrams for representing and analyzing the information obtained from the sampled articles. We manually tabulated the data, and a concise summary is provided in our extended data, accessible in Table 2 at https://rpubs.com/JhenniferNascimento/table and https://zenodo.org/records/10757759.
Pie and bar charts were used to illustrate the eligibility criteria for determining the inclusion of studies in each synthesis, along with the percentages of discarded and included studies. Sankey diagrams were employed to depict key variables and elucidate potential relationships among them.
3. Results
3.1 Data Collection
3.1.1 Identification stage
The search for the terms “variance analysis,” “analysis of variance,” and “ANOVA,” which we conducted on the Web of Science and Scopus platforms, resulted in retrieving 8,460 files on the former and 8,6958,695 on the latter. Out of this total, 3,6153,615 files from Web of Science and 3,5293,529 from Scopus were available in open access. Consequently, during the identification stage, we obtained a combined set of 71447144 articles published between 1961 and 2023 from both platforms.
3.1.2 Screening stage
After the removal of duplicates, 6,0776,077 articles remained for downloading. We downloaded 5,0325,032 articles through automation, leaving 1,0451,045 for manual download. Despite applying the open access filter on both platforms, we could not access 5252 of the articles earmarked for manual downloading, resulting in a total of 6,0256,025 articles successfully downloaded.
By searching for the terms “data were transformed,” “transformation of the data” and “data transformation” within the full text of the 6,0256,025 articles, we narrowed down the number of articles requiring scrutiny from 6,0256,025 to 565565 for analysis in the upcoming stages.
3.1.3 Eligibility and inclusion stages
We read and collected relevant information from 565565 articles, resulting from the previous stages. Among these, 506506 articles were discarded, with details about the discards presented in the descriptive analysis. We effectively collected information from only 5959 articles relevant to our search.
Some of the tabulated articles conducted more than one experiment in their work or used more than one transformation, thus leading to more than one variance analysis. Each distinct experiment and transformation were treated as separate observations to ensure correct counting. As a result, the sample of 5959 articles generated 7070 tabulated observations. The study characteristics are presented in Table 2, available at https://rpubs.com/JhenniferNascimento/table.
3.2 Descriptive analysis
Figure 1 presents the quantities of articles discarded and included for tabulation, where the stacked bars visually show the total of 506506 and 5959 articles discarded and included in the final sample, respectively. On the other hand, the first pie chart presents the reasons used for the discard, and the second one shows the transformations used for the validation of the analysis of variances.
Figure 1. A descriptive analysis of the included and discarded articles, considering the field of study of the works and the types of transformations found in them.
In the first circular sector, it is evident that we discarded approximately 78%78% of the articles from fields like medicine, engineering, psychology, and physical education because they were outside the field of agrarian sciences. We discarded approximately 15%15% of the articles for not containing variance analysis, 4.55%4.55% for not using data transformation, and just over 1%1% were books and, therefore, incompatible with the inclusion criteria.
In the second circular sector of Figure 1, which relates to articles with relevant information for our study published between 1994 and 2022, we observed five types of transformations. These include logarithmic, square root, Box-Cox, power, and arcsine transformations, used to validate variance analysis in experiments involving crops such as corn, rice, passion fruit, and others, as illustrated in Figure 2. We grouped categories with only one occurrence as “other” for the “study element” variable.
Figure 2. A Sankey diagram representing the relationship between the transformations used in the evaluated studies and the study elements of the experiments.
In the “Other” category, we have study elements that had only one occurrence in the sample.
In addition to examining the relationship between the study elements of the experiment and the transformations used, we investigated using Figure 3 to explore the interactions and connections among the transformations. We also verified assumptions, assessed the motivation for employing these transformations, considered the interpretation scale, and reevaluated the assumptions of analysis of variance after applying the transformation.
Figure 3. Sankey diagram illustrating the relationships between the transformations used, the verification of assumptions (N for normality, H for homogeneity of variances, N+H for normality and homogeneity of variances, and N+H+I for normality, homogeneity of variances, and independence), the motivation for using these transformations, the scale of interpretation, and the re-verification of assumptions.
As a result, Figure 3 highlights that transformations were applied within the final sample with (55.71%55.71%) and without (44.28%44.28%) the verification of analysis of variance assumptions. Among the sampled studies that checked the assumptions, 66.66%66.66% verified at least one of the three assumptions (normality, homogeneity, and independence of residuals) before applying the transformation, while 33.33%33.33% mentioned the verification of assumptions but did not specify which the checked assumption.
Among the observed transformations in the sample (as illustrated in Figure 3), logarithmic (28.57%28.57%), arcsine (21.42%21.42%), and square root (20%20%) transformations were the most used, regardless of whether checked assumptions. At the same time, 18.57%18.57% did not specify the transformation used. The remaining 11.44% refer to articles that utilized power and Box-Cox transformations.
Figure 3 also reveals the presence of articles that did not verify assumptions, did not specify the transformation used, did not record the rationale behind the choice of transformation, and did not report whether the meted assumptions of analysis of variance after the application of the transformation. Only 5.71%5.71% of the studies conducted verification of normality, homogeneity, and independence of residuals assumptions and adopted transformations with plausible justifications and motivations, illustrating the technique’s incomplete and potentially incorrect application in 94.28%94.28% of the considered studies.
Finally, Figure 3 also provides relevant information regarding the interpretation approach adopted in the studies. Most articles interpreted their results on the transformed scale, considering the data after applying transformations. However, some studies mentioned inverse transformation to revert the data to the original scale before interpretation, which is an incorrect practice. As for the reevaluation of assumptions after the implementation of transformations, most studies did not mention this step.
4. Discussion
4.1 Data collection
Executing the steps proposed by PRISMA (identification, screening, eligibility, and inclusion), with the implemented adaptations, presents an innovative approach to searching and selecting articles for this study. The direct search for the terms of interest in the full text represented a bold strategy, one that could potentially serve as a valuable technique for future systematic reviews, particularly when researchers seek information that may not be explicitly stated in the title or abstract, as was the case in our study.
The screening phase, implemented with automated article downloading and the search for terms in the complete text, programmed in the Python language, efficiently directed us to the most relevant articles with minimal manual effort required. Although some articles required manual downloading, we significantly reduced the overall effort.
During the eligibility and inclusion phases, we identified and selected articles that reported essential information about the implementation of data transformations to validate the analysis of variance. We notice that many of these studies did not unsurprisingly document several relevant pieces of information.
4.2 Descriptive analysis
As depicted in Figure 1, a large portion of the articles was discarded, which is common in systematic literature reviews, as pointed out by Gerstner.14 According to the authors, essential information is often omitted in scientific papers, leading to the exclusion of these studies during the systematic review or meta-analysis stage. In our study, only 10%10% of the sample provided the information of interest, with the majority of exclusions occurring because they were unrelated to the agrarian sciences field. This result was surprising since we expected to obtain a more representative sample of the field due to the filtering criteria employed on the platforms.
When examining the transformations employed in the studies concerning the analysed elements in the experiments (as exemplified in Figure 2), no specific pattern emerged that linked a particular type of element to a specific transformation. By expanding the sample, it is conceivable that we may eventually discern a relevant pattern between the types of elements used in experiments and their interaction with specific transformations.
Regarding the interactions and connections of the variables presented in Figure 3, concerns arise about the validity of the analyses conducted in studies where 55%55% of the sample did not verify essential assumptions (normality, homogeneity, and independence of residuals) and opted for data transformations. The practice of transforming data without first determining whether it is necessary for the analysis compromises the interpretation and reliability of the results obtained.
On the other hand, the finding that 2626 out of 3939 articles that effectively assessed at least one of the three assumptions before applying transformations (equivalent to 66.66%66.66%), representing only 37.14%37.14% of the total sample (of 7070 articles), raises questions about the awareness and statistical rigor of authors in handling such data analysis. In contrast, the 33.33%33.33% of articles mentioning assumption verification without specifying which ones indicate a need for more transparency in statistical analysis practices.
The distribution of data transformations in the sample draws attention to the prevalence of logarithmic, arcsine, and square root transformations, regardless of assumption verification. However, the omission of transformation cases raises concerns about research transparency and reproducibility, underscoring the need for comprehensive documentation of methods to ensure accurate evaluation and replicability.
The finding that only a tiny portion of the studies adopted transformations with plausible justifications after verifying the assumptions of normality, homogeneity, and independence of residuals, coupled with the presence of studies that did not verify assumptions, did not mention transformations used and did not document justifications for their choices, raises questions about the statistical rigor of authors in conducting such analyses. It highlights the need for greater statistical rigor within the academic community and more explicit guidelines for conducting robust and transparent statistical analyses, which ensure reliable and meaningful results for advancing research.
Furthermore, the highlighted findings also raise essential considerations about academic journals’ peer review and publication process. The journal with the highest impact factor in the sample includes one of the articles that did not verify statistical assumptions, omitted details about applied transformations, and failed to document the rationale behind their choices. Accepting works with such characteristics impacts the quality of scientific literature and compromises the integrity of presented results and the correct interpretation of conclusions.
Therefore, readers of these works often need more evidence to determine the reliability of the executed analysis and the result’s veracity, having to rely on the content presented without the opportunity to develop their conclusions based on the analyses. It shows the importance of a complete approach in describing the procedures used in scientific works that are published and that journals need to be more careful, especially when it comes to implementing this methodology that is so old and used.
Regarding aspects related to result interpretation and the methodological approach adopted in the studies in our sample, the observation that most articles chose to interpret their results on the transformed scale points to an ordinary and correct practice in the literature. However, returning the data to its original scale before interpretation raises a discussion about the validity of this approach, as it can distort the correct interpretation of results and potentially lead to erroneous conclusions. For the articles interpreted in both scales, those made an unnecessary effort. Interpreting must always occur on the transformed scale.
Finally, another relevant point is the lack of mention of reevaluating assumptions after applying transformations. It raises questions about researchers’ awareness of the importance of verifying whether the assumptions of analysis of variance are met even after data transformation. Omitting this step can compromise the reliability and validity of conclusions. The documentation and detailed description of methods used in all scientific research is crucial, especially in the field of agricultural sciences, which was the focus of our study.
5. Conclusions
We introduced a novel approach to screening systematic literature reviews, which combines downloading and searching for the terms of interest directly within the full-text articles. This technique proves valuable, mainly when research of interest is not readily available in titles or abstracts.
The descriptive analysis of transformations used in the articles revealed the prevalence of logarithmic, arcsine, and square root transformations. It became evident that verifying assumptions before applying transformations was only consistently conducted in some cases, emphasizing the need for a more detailed and consistent approach in research planning and reporting procedures.
Interpreting results on the transformed scale was the most common approach, although some studies adopted reverse transformations to return data to the original scale. However, the omission of analysis details underscores the need for greater clarity and consistency in documenting the procedures employed.
Given our focus on the field of agricultural sciences and the identified inconsistencies in the technique’s application, questions arise regarding the appropriate use of this method in other areas of knowledge.
Data availability
Underlying data
All underlying data are available as part of the article and no additional source data are required.
Extended data
Zenodo: Extended data for ‘Statistical data transformation in agrarian sciences for variance analysis: a systematic review’, https://doi.org/10.5281/zenodo.10519177.15
Reporting guidelines
Zenodo: PRISMA checklist and flow diagram for ‘Statistical data transformation in agrarian sciences for variance analysis: a systematic review’, https://doi.org/10.5281/zenodo.10758186.16
8. Rupert D: Statistical analysis, special problems of transformations of data. Soc. Behav. Sci. 2001; 20(1): 15007–15014.
9. Oliveira JPR, Santana DG, Pereira VJ, et al.: Data transformation: an underestimated tool by inappropriate use. Acta Scientiarum. 2018; 40(1): 35300–35311. Publisher Full Text
10. Box GEP, Cox DR: An analysis of transformations. J. R. Stat. Soc. 1964.11; 26(2): 211–243. Publisher Full Text
11. Hocking RR: The Analysis and Selection of Variables in Linear Regression. Biometrics. 1976; 32(1): 1–49. Publisher Full Text
12. Khan S: Meta-analysis: methods for health and experimental studies. 1st ed.Springer; 2020.
13. Moher D, Liberati A, Tetzlaff J, et al.: Preferred reporting items12for systematic reviews and meta-analyses: The PRISMA Statement. PLoS Med. 2009; 6: e1000097. PubMed Abstract | Publisher Full Text | Free Full Text
14. Gerstner K, Mateos DM, Gurevitch J, et al.: Will your paper be used in a meta-analysis? Make the reach of your research broader and longer lasting. Methods Ecol. Evol. 2017; 8: 777–784. Publisher Full Text
15. Nascimento JS, Silva JF, Bernardes RC, et al.: Statistical data transformation in agrarian sciences for variance analysis: a systematic review [data and code].2024.
16. Nascimento JS, Silva JF, Bernardes RC, et al.: Statistical data transformation in agrarian sciences for variance analysis: a systematic review [reporting guidelines].2024.
Les trophées de la Cité de la Céramique – Manufactures de Sèvres
JO de Paris 2024 : le Mobilier national et la Cité de la céramique créent leurs trophées olympiques. Paris 2024 est l’occasion pour les deux manufactures d’excellence d’affirmer leur complémentarité. A l’heure d’un rapprochement imminent dans le cadre d’un établissement public.
À l’approche des Jeux Olympiques de Paris 2024, la Cité de la céramique – Sèvres et Limoges et les Beaux-Arts de Paris s’associent pour créer de nouveaux trophées pour les médaillés d’or français des Jeux Olympiques et Paralympiques.
Félicitations à Ece BAL, Thomas BESSET, Sacha FLOCH POLIAKOFF, Samya MOINEAUD, Nassim SARNI etDomitille SIERGÉ, diplômés de l’École, dont les créations originales seront peintes sur des vases de Blois.
Symboliquement, en écho à la flamme olympique, ces vases seront cuits dans l’un des fours à bois du XIXe siècle, rénové pour l’occasion. Cette cuisson exceptionnelle se déroulera en mars 2024 pendant trente-trois heures, à une température avoisinant les 1300°C.
Ece Bal, Thomas Besset, Sacha Floch Poliakoff, Samya Moineaud, Nassim Sarni et Domitille Siergé auront l’opportunité de matérialiser leur projet à Sèvres. Avec l’aide des artisans dans une démarche de transmission des savoir-faire. Les vases seront remis aux médaillés d’or français des Jeux Olympiques et Paralympiques 2024.
Paris 2024 est l’occasion pour les deux manufactures d’excellence d’affirmer leur complémentarité à l’heure d’un rapprochement imminent dans le cadre d’un établissement public.
D’une pierre deux coups. Pour les fleurons que sont le Mobilier national et la Cité de la céramique, dont nombre de clients se situent à l’étranger. Les Jeux Olympiques de Paris sont une occasion de rayonner à l’international. Mais aussi d’illustrer leur futur rapprochement, prévu le 1er janvier 2025 et qui doit donner naissance à un pôle public des métiers d’art.