Informations

Recadrage automatique des images radiographiques numériques collimatées


Avez-vous des suggestions pour une bibliothèque qui propose un algorithme pour recadrer automatiquement les images radiographiques numériques ?

Nous recevons des images en taille réelle (43x43cm) d'un détecteur, indépendamment des réglages du collimateur. Si le collimateur a été fermé à 10x15cm, nous devons recadrer cette zone. Cela devrait être fait automatiquement, de sorte que l'utilisateur ne voit même pas l'image en taille réelle car elle contient beaucoup d'informations qui ne sont pas nécessaires.

Maintenant, nous recherchons une bonne bibliothèque qui offre un tel algorithme. Cela semble être une tâche simple, mais selon la dose et la collimation, il peut être assez difficile de détecter la zone collimatée de l'image. Par conséquent, nous recherchons une solution professionnelle plutôt que de la mettre en œuvre nous-mêmes.

Aucune suggestion?


Il existe un progiciel ImageJ qui peut être utilisé pour ce que vous demandez. En fonction de vos capacités et de la complexité de ce que vous faites, vous pouvez soit écrire une macro dans le programme pour recadrer les images, soit étendre le programme en Java et écrire un plugin personnalisé pour faire ce que vous décrivez.

J'ai utilisé ce programme pendant des années, c'est un programme très puissant.


Logiciel de radiographie

dicoPACS ® DX-R est un logiciel professionnel d'acquisition d'images radiographiques générées par divers systèmes à écran plat (DR) et unités CR (radiographie informatisée avec plaques d'imagerie). Le logiciel contrôle également le fonctionnement des générateurs de rayons X et des appareils à rayons X fabriqués par diverses sociétés, garantissant ainsi un flux de travail efficace et ordonné. L'interface utilisateur graphique simple et conviviale fonctionne via l'écran tactile et la souris. Les dicoPACS ® DX-R le traitement d'images produit des images d'une qualité exceptionnelle et peut être adapté aux besoins particuliers des clients. Un traitement d'image haute performance permet une optimisation spécifique à l'organe, garantissant ainsi des images radiographiques de la plus haute qualité.

Les soins médicaux quotidiens sont facilités par un éventail de fonctions intégrées (par exemple, un guide multimédia de positionnement à rayons X) et une conception intuitive. dicoPACS ® DX-R le logiciel peut être facilement intégré aux systèmes de gestion de l'information existants. De plus, les images radiographiques peuvent être évaluées à l'aide du dicomPACS ® module de visualisation inclus dans le logiciel d'acquisition. Ainsi, le système fonctionne comme un poste de travail de diagnostic à part entière avec la possibilité de passer à un PACS (Picture Archiving and Communication System).

Faire dicoPACS ® DX-R le pivot de votre système de radiographie numérique directe - qu'il s'agisse d'une nouvelle unité avec commande de générateur, d'une modernisation d'une machine à rayons X existante ou d'une solution de valise portable pour les générateurs de rayons X mobiles.


Introduction

Au cours des derniers mois, il y a eu une augmentation du nombre de patients se présentant au service des urgences (SU) avec des maladies respiratoires associées à la maladie à coronavirus 2019 (COVID-19) 1,2. L'évaluation du risque de détérioration de ces patients pour effectuer le triage est cruciale pour la prise de décision clinique et l'allocation des ressources 3 . Alors que le triage à l'urgence est difficile dans des circonstances normales 4,5, pendant une pandémie, les ressources hospitalières tendues augmentent le défi 2,6. Ceci est aggravé par notre compréhension incomplète de COVID-19. L'évaluation des risques basée sur les données et basée sur l'intelligence artificielle (IA) pourrait donc jouer un rôle important dans la rationalisation du triage aux urgences.

Comme la principale complication du COVID-19 est une maladie pulmonaire, telle que la pneumonie 7 , la radiographie pulmonaire est un outil de triage de première intention pour les patients COVID-19 8 . Bien que d'autres modalités d'imagerie, telles que la tomodensitométrie (TDM), offrent une résolution plus élevée, la radiographie pulmonaire est moins coûteuse, inflige une dose de rayonnement plus faible et est plus facile à obtenir sans encourir le risque de contaminer l'équipement d'imagerie et de perturber les services radiologiques 9 . De plus, il a été découvert que des anomalies dans les images radiographiques thoraciques des patients atteints de COVID-19 reflètent les anomalies des tomodensitogrammes 10 . Bien que les connaissances sur la maladie évoluent rapidement, la compréhension de la corrélation entre les schémas parenchymateux pulmonaires visibles sur les images radiographiques thoraciques et la détérioration clinique reste limitée. Cela motive l'utilisation d'approches d'apprentissage automatique pour la stratification des risques à l'aide de l'imagerie par rayons X du thorax, qui peuvent être en mesure d'apprendre de telles corrélations automatiquement à partir des données.

La majorité des travaux antérieurs connexes utilisant des données d'imagerie de patients COVID-19 se concentrent davantage sur le diagnostic que sur le pronostic 11,12,13,14,15,16,17,18. Les modèles pronostiques utilisés pour prédire la mortalité, la morbidité et d'autres résultats liés à l'évolution de la maladie ont un certain nombre d'applications potentielles dans la vie réelle, telles que : définir et trier systématiquement les patients malades, alerter les équipes de gestion des lits sur les demandes attendues, fournir une connaissance de la situation aux équipes de patients individuels et allocation plus générale des ressources 11 . La méthodologie antérieure pour le pronostic des patients COVID-19 via l'apprentissage automatique utilise principalement des variables cliniques collectées en routine 2,19 telles que les signes vitaux et les tests de laboratoire, qui sont depuis longtemps établis comme de puissants prédicteurs de détérioration 20,21. Certaines études ont proposé des systèmes de notation pour les images radiographiques thoraciques afin d'évaluer la gravité et la progression de l'atteinte pulmonaire à l'aide de l'apprentissage en profondeur 22 , ou plus couramment, par le biais d'une évaluation clinique manuelle 7,23,24. En général, le rôle de l'apprentissage en profondeur pour le pronostic des patients COVID-19 à l'aide de l'imagerie par rayons X du thorax n'a pas encore été complètement établi. L'utilisation à la fois des images et des variables cliniques dans un seul système d'IA n'a pas non plus été étudiée auparavant. Nous montrons qu'ils contiennent tous deux des informations complémentaires, ce qui ouvre une nouvelle perspective sur la construction de systèmes d'IA pronostiques pour COVID-19.

Dans cette étude rétrospective, nous développons un système d'IA qui effectue une évaluation automatique du risque de détérioration, basée sur l'imagerie par rayons X du thorax, combinée à d'autres variables cliniques non liées à l'imagerie collectées en routine. Une vue d'ensemble du système est illustrée à la figure 1a. L'objectif est de fournir un soutien à la prise de décision clinique critique impliquant les patients arrivant au service d'urgence ayant besoin de soins immédiats 2,25, en fonction de la nécessité d'un triage efficace des patients. Le système est basé sur l'imagerie par rayons X du thorax, tout en incorporant également d'autres variables cliniques non liées à l'imagerie recueillies en routine et connues pour être de puissants prédicteurs de détérioration.

une Vue d'ensemble du système d'IA qui évalue le risque de détérioration du patient à chaque fois qu'une image radiographique du thorax est collectée aux urgences. Nous concevons deux modèles différents pour traiter les images radiographiques thoraciques, tous deux basés sur l'architecture de réseau de neurones GMIC 26,27. Le premier modèle, COVID-GMIC, prédit le risque global de détérioration dans les 24, 48, 72 et 96 h, et calcule des cartes de saillance qui mettent en évidence les régions de l'image qui ont le plus éclairé ses prédictions. Les prédictions de COVID-GMIC sont combinées aux prédictions d'un modèle d'amplification de gradient 28 qui apprend à partir de variables cliniques collectées de manière routinière, appelées COVID-GBM. Le deuxième modèle, COVID-GMIC-DRC, prédit comment le risque de détérioration du patient évolue dans le temps sous forme de courbes de risque de détérioration. b Architecture de COVID-GMIC. Premièrement, COVID-GMIC utilise le réseau mondial pour générer quatre cartes de saillance qui mettent en évidence les régions sur l'image radiographique qui prédisent l'apparition d'événements indésirables dans les 24, 48, 72 et 96 h, respectivement. COVID-GMIC applique ensuite un réseau local pour extraire des détails visuels à grain fin de ces régions. Enfin, il utilise un module de fusion qui agrège les informations du contexte global et des détails locaux pour établir un diagnostic holistique.

Notre système d'IA utilise des réseaux de neurones convolutifs profonds pour effectuer une évaluation des risques à partir d'images radiographiques thoraciques. En particulier, nous avons conçu notre classificateur basé sur l'imagerie basé sur le classificateur d'instances multiples (GMIC) globalement conscient (GMIC) 26,27, appelé COVID-GMIC, dans le but d'obtenir des performances et une interprétabilité précises (voir Fig. 1b). Le système apprend également à partir de variables cliniques collectées de manière routinière à l'aide d'un modèle d'amplification de gradient (GBM) 28 , appelé COVID-GBM. Les deux modèles ont été entraînés à l'aide d'un ensemble de données de 3661 patients admis à NYU Langone Health entre le 3 mars 2020 et le 13 mai 2020. Pour tirer des enseignements des deux modalités, nous avons combiné les prédictions de sortie de COVID-GMIC et COVID-GBM pour prédire le risque global de détérioration sur différents horizons temporels, allant de 24 à 96 h. De plus, le système comprend un modèle qui prédit comment le risque de détérioration devrait évoluer dans le temps en calculant des courbes de risque de détérioration (DRC), dans l'esprit de l'analyse de survie 29 , notée COVID-GMIC-DRC.

Notre système est capable de prédire avec précision le risque de détérioration sur un ensemble de tests de nouveaux patients. Il atteint une aire sous la courbe caractéristique de fonctionnement du récepteur (AUC) de 0,786 (IC à 95 % : 0,745-0,830) et une aire sous la courbe de rappel de précision (PR AUC) de 0,517 (IC à 95 % : 0,429-0,600) pour prédiction de détérioration dans les 96 h. De plus, sa probabilité estimée de l'évolution temporelle du risque discrimine efficacement entre les patients et est bien calibrée. Le modèle basé sur l'imagerie atteint une AUC comparable à celle de deux radiologues thoraciques expérimentés dans une étude de lecteur, soulignant le potentiel de notre approche basée sur les données. Afin de vérifier les performances de notre système dans un contexte clinique réel, nous en avons déployé silencieusement une version préliminaire à NYU Langone Health pendant la première vague de la pandémie, démontrant qu'il peut produire des prédictions précises en temps réel. Dans l'ensemble, ces résultats suggèrent fortement que notre système est un outil viable et précieux pour informer le triage des patients COVID-19. Pour la reproductibilité, nous avons publié notre code et les modèles formés sur https://github.com/nyukat/COVID-19_prognosis.


Matériaux et méthodes

Ensembles de données

Tous les ensembles de données ont été anonymisés et conformes à la loi Health Insurance Portability and Accountability Act. Les ensembles de données de Biélorussie et de l'Université Thomas Jefferson ont été exemptés de l'examen du comité d'examen institutionnel à l'hôpital universitaire Thomas Jefferson. Les ensembles de données des National Institutes of Health ont été exemptés de l'examen par le comité d'examen institutionnel (n° 5357) par le National Institutes of Health Office of Human Research Protection Programs. Il s'agissait d'une étude rétrospective portant sur quatre ensembles de données (tableau 1). Cela comprend deux ensembles de données accessibles au public maintenus par les National Institutes of Health, qui proviennent du comté de Montgomery, dans le Maryland, et de Shenzhen, en Chine (20). Les deux autres ensembles de données proviennent de l'hôpital universitaire Thomas Jefferson de Philadelphie et du Belarus Tuberculosis Portal géré par le programme de santé publique TB du Belarus (21). Pour les ensembles de données de l'Université Thomas Jefferson et de Biélorussie, les cas positifs avec des manifestations radiologiques de TB pulmonaire ont été confirmés par des résultats pathologiques d'expectorations, les auteurs originaux des rapports de radiologie et un radiologue indépendant (P.L., avec 10 ans d'expérience). Pour l'ensemble de données de l'Université Thomas Jefferson, les patients témoins sains ont été établis à partir des auteurs originaux des rapports de radiologie et d'un radiologue indépendant (P.L.). Pour les ensembles de données des National Institutes of Health, les patients positifs pour la tuberculose et les patients témoins sains ont été établis à partir des dossiers cliniques et de lecteurs experts. Pour l'ensemble de données biélorusse, les 88 premiers cas consécutifs (sur 420 dans le portail) ont été téléchargés pour des patients ayant subi une radiographie thoracique postéro-antérieure au moment du diagnostic initial et de l'analyse pathologique. Étant donné que l'ensemble de données biélorusse se composait de patients positifs pour la tuberculose, un nombre similaire de patients témoins sains a été obtenu auprès de l'hôpital universitaire Thomas Jefferson de sorte que le total cumulé de tous les ensembles de données aurait un nombre similaire de patients positifs pour la tuberculose et de patients sains. (Tableau 1). L'ensemble de données de la Chine incluait une minorité d'images pédiatriques (21 pédiatriques, 641 adultes), de sorte que les tailles d'image avaient une plage plus large (tableau 1). Les données démographiques des patients pour les ensembles de données et les résultats pertinents supplémentaires tels que l'épanchement pleural, le schéma militaire de la maladie et la présence de cavitation pour les cas positifs sont également fournis dans le tableau 1.

Note.—Les données entre parenthèses sont le numérateur et le dénominateur. Il y avait un total de 1007 cas (492 cas positifs pour la TB et 515 patients témoins sains). Les « cas positifs » font référence aux cas positifs pour la TB. CR = radiographie informatisée, DICOM = Digital Communications in Medicine, DR = radiographie numérique, PNG = Portable Network Graphics.

Méthodes

Les images radiographiques thoraciques ont été redimensionnées en une matrice 256 × 256 et converties au format Portable Network Graphics. Les images ont été chargées sur un ordinateur avec un système d'exploitation Linux (Ubuntu 14.04 Canonical, Londres, Angleterre) et avec le framework d'apprentissage en profondeur Caffe (http://caffe.berkeleyvision.org BVLC, Berkeley, Californie) (22), avec des dépendances CUDA 7.5/cuDNN 5.0 (Nvidia Corporation, Santa Clara, Californie) pour l'accélération de l'unité de traitement graphique. L'ordinateur contenait un processeur Intel i5 3570k 3,4 GHz (Intel, Santa Clara, Californie), 4 To d'espace disque dur, 32 Go de RAM et une unité de traitement graphique Nvidia Titan ×12 Go (Nvidia) compatible CUDA.

Deux architectures différentes de réseaux de neurones à convolution profonde ont été évaluées dans cette étude, AlexNet (23) et GoogLeNet (24), y compris des modèles pré-entraînés et non entraînés. Les réseaux pré-entraînés ont déjà été formés sur 1,2 million d'images couleur quotidiennes d'ImageNet (http://www.image-net.org/) qui se composait de 1000 catégories avant d'apprendre des radiographies thoraciques dans cette étude (appelée pré-entraînée). Les réseaux non formés n'ont pas été formés avant d'être utilisés (appelés non formés). Cela comprenait AlexNet non formé (Alex-Net-U), AlexNet préformé (AlexNet-T), GoogLeNet non formé (GoogLeNet-U) et GoogLeNet préformé (GoogLeNet-T). Les réseaux pré-entraînés ont été obtenus auprès du Caffe Model Zoo, un référentiel en accès libre de modèles pré-entraînés à utiliser avec Caffe. Les paramètres de solveur suivants ont été utilisés pour l'entraînement : taux d'apprentissage de base de 120 époques pour les modèles non entraînés et pour les modèles pré-entraînés, 0,01 et 0,001, respectivement abaissement de la descente de gradient stochastique, 33 % et γ, 0,1.

Sur les 1007 patients de l'ensemble de données total (tableau 1), 150 patients aléatoires (14,9 %) ont été sélectionnés pour les tests. La randomisation a été effectuée en utilisant des nombres pseudo-aléatoires générés à partir de la fonction aléatoire dans la bibliothèque standard Python (Python 2.7.13, Python Software Foundation, Wilmington, Del). Sur ces 150 patients testés, 75 étaient positifs pour la tuberculose et 75 étaient en bonne santé. Parmi les 857 patients restants, ils ont été répartis au hasard selon un ratio de 80 % : 20 % entre l'entraînement (685 patients) et la validation (172 patients). L'ensemble d'apprentissage a été utilisé pour entraîner l'algorithme, l'ensemble de validation était pour la sélection du modèle et l'ensemble de test était pour l'évaluation du modèle choisi final. En décidant de la division en pourcentage, l'objectif est de conserver suffisamment de données pour que les algorithmes puissent s'entraîner, mais d'avoir suffisamment de validations et de cas de test pour maintenir un intervalle de confiance raisonnable de la précision du modèle (26).

Les 75 patients testés positifs pour la TB ont été analysés par un radiologue cardiothoracique (PL) pour le degré d'atteinte du parenchyme pulmonaire par la TB et classés dans l'une des trois catégories suivantes : subtile (atteinte du parenchyme pulmonaire, <4%), intermédiaire (atteinte du parenchyme pulmonaire, 4 % à 8 %) et facilement apparent (atteinte du parenchyme pulmonaire, >8 %) (tableau 2). Pour le déterminer, les poumons droit et gauche ont été divisés en trois zones (supérieure, médiane et inférieure). Les opacités qui occupaient la moitié ou plus d'une zone étaient considérées comme évidentes. Les opacités occupant un quart à la moitié d'une zone étaient considérées comme intermédiaires. Les opacités occupant moins d'un quart de zone étaient considérées comme subtiles.

Tableau 2 Répartition des cas tests positifs pour la tuberculose

Note.—Les données entre parenthèses sont le numérateur et le dénominateur.

Analyse statistique et des données

Toutes les analyses statistiques ont été effectuées à l'aide d'un logiciel (MedCalc v. 16.8 MedCalc Software, Ostende, Belgique). Sur les ensembles de données de test, les courbes caractéristiques de fonctionnement du récepteur et les AUC ont été déterminées (27). Les tableaux de contingence, la précision, la sensibilité et la spécificité ont été déterminés à partir du seuil optimal par l'indice de Youden, qui est l'équation suivante : [1 − (taux de faux positifs + taux de faux négatifs)]. Pour les courbes caractéristiques de fonctionnement du récepteur, l'erreur type, les intervalles de confiance à 95 % et les comparaisons entre les ASC ont été effectués en utilisant une approche non paramétrique (28–31). La méthode de Wald ajustée a été utilisée pour déterminer des intervalles de confiance à 95 % sur l'exactitude, la sensibilité et la spécificité à partir des tableaux de contingence (32). P des valeurs inférieures à 0,05 ont été considérées comme indiquant une signification statistique.

Les ensembles ont été réalisés en prenant différentes moyennes pondérées des scores de probabilité générés par les classificateurs (AlexNet et GoogLeNet). Cela allait de l'utilisation d'une pondération égale (50 % AlexNet et 50 % GoogLeNet) à une pondération jusqu'à 10 fois biaisée vers l'un ou l'autre classificateur. Les courbes caractéristiques de fonctionnement du récepteur, l'ASC et les valeurs optimales de sensibilité et de spécificité ont ensuite été déterminées pour diverses approches d'ensemble.

Pour les cas où les classificateurs AlexNet et GoogLeNet étaient en désaccord, un radiologue cardiothoracique indépendant certifié (BS, avec 18 ans d'expérience) a interprété aveuglément les images comme présentant des manifestations de TB ou comme normales. Des tableaux de contingence et des valeurs de sensibilité et de spécificité ont ensuite été créés à partir de ces résultats (Fig. 1).

Figure 1 : Tableaux de contingence. UNE, Sensibilité, 92,0 % (intervalle de confiance à 95 % : 83,3 %, 96,6 %) spécificité, 98,7 % (intervalle de confiance à 95 % : 92,1 %, 100 %) précision, 95,3 % (intervalle de confiance à 95 % : 90,5 %, 97,9 %). B, sensibilité, 92,0 % (intervalle de confiance à 95 % : 83,3 %, 96,6 %) spécificité, 94,7 % (intervalle de confiance à 95 % : 86,7 %, 98,3 %) précision, 93,3 % (intervalle de confiance à 95 % : 88,0 %, 96,5 %). C, sensibilité, 97,3 % (intervalle de confiance à 95 % : 90,2 %, 99,8 %) spécificité, 94,7 % (intervalle de confiance à 95 % : 86,7 %, 98,3 %) précision, 96,0 % (intervalle de confiance à 95 % : 91,4 %, 98,3 %). , sensibilité, 97,3 % (intervalle de confiance à 95 % : 90,2 %, 99,8 %) spécificité, 100 % (intervalle de confiance à 95 % : 95,8 %, 100 %) précision, 98,7 % (intervalle de confiance à 95 % : 95,0 %, 99,9 %).


Résumé

Les technologies actuelles de phénotypage des plantes pour caractériser les caractères pertinents pour l'agriculture ont été principalement développées pour une utilisation en laboratoire et/ou en serre. Dans le cas des traits architecturaux des racines, cela limite les efforts de phénotypage, en grande partie, aux jeunes plantes cultivées dans des conteneurs et des milieux de croissance spécialisés. Par conséquent, de nouvelles approches sont nécessaires pour caractériser les systèmes racinaires matures de plantes plus âgées cultivées dans des conditions de sol réelles sur le terrain. Les méthodes d'imagerie capables de relever les défis associés à la caractérisation des systèmes racinaires matures sont rares en raison, en partie, de la plus grande complexité des systèmes racinaires matures, y compris la plus grande taille, le chevauchement et la diversité des composants racinaires. Notre solution d'imagerie combine un protocole d'imagerie de terrain et une approche algorithmique pour analyser les systèmes racinaires matures cultivés sur le terrain. Via deux études de cas, nous démontrons comment l'analyse d'images peut être utilisée pour estimer les traits racinaires localisés qui capturent de manière fiable la diversité architecturale héréditaire ainsi que la variation architecturale induite par l'environnement des plantes monocotylédones et dicotylédones. Dans la première étude, nous montrons que nos algorithmes et traits (dont 13 nouveaux traits inaccessibles à l'estimation manuelle) peuvent différencier neuf maïs (Zea mays) génotypes 8 semaines après la plantation. La seconde étude porte sur un panel de diversité de 188 niébé (Vigna unguiculata) génotypes pour identifier les traits suffisants pour différencier les génotypes même en comparant des plantes dont la date de récolte diffère jusqu'à 14 jours. Dans l'ensemble, nous constatons que les traits dérivés automatiquement peuvent augmenter à la fois la vitesse et la reproductibilité du pipeline d'estimation des traits dans des conditions de terrain.

Les systèmes racinaires des cultures représentent une cible sous-explorée pour des améliorations dans le cadre des efforts communautaires visant à garantir que les rendements et la productivité des cultures mondiales suivent le rythme de la croissance démographique ( Godfray et al., 2010 Gregory et George, 2011 Nelson et al., 2012). Le défi de l'amélioration des systèmes racinaires des cultures est que le rendement et la productivité dépendent également de la fertilité du sol, qui est également une contrainte majeure à la production alimentaire mondiale ( Lynch, 2007). Par conséquent, les améliorations souhaitées des systèmes racinaires des cultures comprennent une utilisation plus efficace de l'eau et l'acquisition d'eau étant donné la probabilité accrue de sécheresse dans les climats futurs (Groupe d'experts intergouvernemental sur l'évolution du climat, 2014). Sur le long terme, le développement de génotypes de cultures avec des phénotypes racinaires améliorés nécessite des avancées dans la caractérisation de l'architecture du système racinaire (RSA) et dans la relation entre RSA et fonction.

La discipline émergente de la phénomique végétale vise à élargir la portée, le débit et la précision des estimations des traits végétaux (Furbank, 2009). Dans le cas des racines des plantes, les traits structuraux peuvent décrire la RSA comme des mesures géométriques ou topologiques de la forme des racines à différentes échelles (par exemple, les diamètres et la largeur de l'ensemble du système racinaire ou d'une seule branche Lynch, 1995 Den Herder et al., 2010). Ces traits peuvent être utilisés pour prédire le rendement dans des conditions spécifiques telles que la sécheresse ou une faible fertilité. Il est crucial de comprendre la diversité et le développement des traits architecturaux des racines, car le déploiement spatial et temporel des racines affecte la forme physique des plantes, en particulier l'acquisition d'eau et de nutriments ( Rich et Watt, 2013). Ainsi, l'amélioration des performances des plantes peut bénéficier d'améliorations dans la caractérisation de l'architecture racinaire, y compris la compréhension de la manière dont la variation des traits survient en fonction du génotype et des conditions environnementales (Band et al., 2012 Shi et al., 2013).

Les efforts actuels pour comprendre la structure des systèmes racinaires des cultures ont déjà conduit à un certain nombre de solutions d'imagerie ( Lobet et al., 2013) capables d'extraire des traits d'architecture racinaire dans diverses conditions ( Fiorani et al., 2012), y compris des conditions de laboratoire ( de Dorlodot et al., 2007) dans lesquelles les plantes sont souvent cultivées dans des pots ou des récipients en verre ( Zeng et al., 2008 Armengaud et al., 2009 Le Bot et al., 2010 Clark et al., 2011 Lobet et al. , 2011 Naeem et al., 2011 Galkovskyi et al., 2012). Dans le cas des pots, les technologies d'imagerie par résonance magnétique coûteuses représentent une approche non invasive pour capturer les détails haute résolution de l'architecture des racines ( Schulz et al., 2013), similaire aux capacités des systèmes de tomographie par micro-ordinateur à rayons X ( μCT). Les systèmes à rayons X permettent de capturer l'architecture racinaire à une échelle fine dans des conteneurs avec une grande variété de types de sols ( Mairhofer et al., 2012 Mooney et al., 2012). Il a été démontré que la CT aux rayons X associée à des algorithmes spécialement conçus a une résolution suffisante pour récupérer la structure de la racine dans de nombreux cas ( Mairhofer et al., 2013). Néanmoins, les systèmes μCT à rayons X sont actuellement incapables d'imager les systèmes racinaires matures en raison des restrictions techniques de la taille des conteneurs.

Comme alternative, les systèmes racinaires peuvent être visualisés directement avec un appareil photo numérique lorsqu'ils sont cultivés dans des récipients en verre avec des supports transparents tels que de la gomme gellane ou des remplacements de sol transparents (Downie et al., 2012). Une telle imagerie in situ bénéficie de conditions de foudre contrôlées lors de l'acquisition d'images, d'autant plus lorsqu'on se concentre sur des structures racinaires moins complexes de plantes plus jeunes qui permettent une reconstruction tridimensionnelle ( Clark et al., 2011 Topp et al., 2013). Dans de telles conditions contrôlées, on s'attend à ce que l'imagerie permette d'étudier la croissance des racines au fil du temps ( Spalding et Miller, 2013 Sozzani et al., 2014).

Cependant, toutes les solutions énumérées ci-dessus ont été utilisées principalement pour évaluer les structures racinaires au stade précoce des plantules ( French et al., 2009 Brooks et al., 2010 Sozzani et al., 2014) jusqu'à environ 10 jours après la germination ( Clark et al., 2011), ce qui rend pratiquement impossible l'observation directe des systèmes racinaires matures. Par exemple, les racines primaires et séminales constituent la majeure partie du système racinaire des plantules de maïs (Zea mays) pendant les premières semaines après la germination. Plus tard dans le développement, les racines post-embryonnaires portées par les pousses deviennent le composant majeur du système racinaire du maïs ( Hochholdinger, 2009), pas encore accessible aux plateformes de phénotypage de laboratoire. En plus des limitations phénologiques, les approches de phénotypage actuelles pour l'architecture racinaire nécessitent des conditions de croissance spécialisées avec des environnements aériens et du sol qui diffèrent des conditions de terrain. , 2009).

En effet, le phénotypage de terrain à haut débit peut être considéré comme une nouvelle frontière pour l'amélioration des cultures ( Araus et Cairns, 2014) car l'imagerie d'un système racinaire mature dans des conditions de terrain réalistes pose des défis et des opportunités uniques ( Gregory et al., 2009 Zhu et al. , 2011 Pieruschka et Poorter, 2012). Les défis sont intrinsèques aux racines cultivées sur le terrain car les systèmes d'imagerie souterraine in situ à ce jour sont incapables de capturer les systèmes racinaires fins. En conséquence, les premières tentatives de caractérisation des systèmes racinaires sur le terrain se sont concentrées sur l'extraction manuelle des propriétés structurelles. Les approches manuelles ont analysé la hiérarchie des ramifications du système racinaire en fonction de la longueur et de la profondeur des racines ( Fitter, 1991). À la fin des années 1980, des techniques d'imagerie ont été utilisées pour la première fois ( Tatsumi et al., 1989) pour estimer le comportement de remplissage d'espace des racines, un processus d'estimation qui a été récemment automatisé ( Zhong et al., 2009). Une faiblesse de ces approches est que les propriétés exactes de remplissage de l'espace, telles que la dimension fractale, sont sensibles à l'incomplétude du réseau racinaire excavé ( Nielsen et al., 1997, 1999). En particulier, la méthode de comptage des boîtes a été critiquée pour les réseaux de ramifications aériennes des cimes des arbres ( Da Silva et al., 2006). Les mêmes critiques s'appliquent aux systèmes racinaires, car de fines racines secondaires ou tertiaires peuvent être perdues ou coupées ou peuvent adhérer les unes aux autres pendant le processus de nettoyage, rendant impossible l'analyse de l'ensemble du réseau.

Comme alternative, le protocole de terrain shovelomique a été proposé pour caractériser l'architecture racinaire du maïs dans des conditions de terrain (Trachsel et al., 2011). En shovelomique, le chercheur creuse la racine dans un rayon de 20 cm autour de l'hypocotyle et 20 cm sous la surface du sol. Ce processus standardisé capture la majorité de la biomasse du système racinaire dans la zone d'excavation. Après l'excavation, la pousse est séparée de la racine à 20 cm au-dessus du niveau du sol et lavée dans de l'eau contenant un détergent doux pour enlever la terre. La procédure actuelle place la racine lavée sur une planche de phénotypage constituée d'un grand rapporteur pour mesurer les angles dominants des racines avec le niveau du sol à des intervalles de profondeur et des marques pour marquer les classes de longueur et de densité des racines latérales. Un pied à coulisse numérique est utilisé pour mesurer les diamètres des tiges radiculaires ( Fig. 1). Les traits observés varient légèrement d'une culture à l'autre, mais entrent généralement dans les catégories suivantes par profondeur ou classe de racines : angle, nombre, densité et diamètre. De cette façon, la shovelomique sur le terrain permet au chercheur de quantifier visuellement la structure excavée de la couronne racinaire et de comparer les génotypes via un ensemble commun de traits qui ne dépendent pas de la connaissance ou de l'observation de l'ensemble du réseau du système racinaire. Il convient de noter que la shovelomique est particulièrement utile dans les pays en développement, qui ont un accès limité aux plateformes de sélection moléculaire ( Delannay et al., 2012), et pour lesquels la sélection phénotypique directe est une option intéressante.

A, Tableau de notation pshovelomics classique pour marquer l'angle des racines de maïs avec le tissu du sol. B, Un exemple pour marquer la profondeur et l'angle d'enracinement dans le haricot commun.


Conclusion

L'analyse mutationnelle reste l'étalon-or pour identifier et caractériser la fonction des gènes et ceci est facilité par le phénotypage à haut débit. Compte tenu de la demande d'analyse phénotypique à haut débit dans de nombreux organismes, nous pouvons nous attendre à ce que le développement ultérieur du phénotypage à grande échelle démêle les relations génotype-phénotype complexes. À titre d'exemple, la microscopie automatisée offre la possibilité de collecter de grandes quantités de données qui doivent être standardisées, normalisées et analysées. Cela augmente le besoin d'un accès communautaire pour stocker et rechercher ces grands ensembles de données. Il serait très avantageux que les données phénotypiques à grande échelle puissent être facilement comparées et partagées entre les laboratoires. Cependant, les limitations actuelles à la réutilisation et au partage de ces données incluent le manque de termes de vocabulaire normalisés, de paramètres expérimentaux et de références quantitatives. Par conséquent, il existe un besoin urgent de normes et de conditions clairement définies et acceptées par une communauté donnée. Pour atteindre cet objectif, des bases de données contenant des informations phénotypiques et, en particulier, l'intégration de données phénomiques et autres données à l'échelle du génome sont nécessaires. Des bases de données phénotype-génotype multi-organismes qui facilitent l'identification interspécifique des gènes associés aux phénotypes orthologues sont désormais disponibles (par exemple, PhenomicDB) [83, 84]. Au cours des prochaines années, la capacité de tirer pleinement parti de ces grands ensembles de données ne pourra être obtenue qu'en combinant les données génomiques, épigénomiques, transcriptomiques, protéomiques, métabolomiques et phénomiques dans des bases de données partagées. Cette ressource sera inestimable pour l'étude et l'élucidation éventuelle des mécanismes moléculaires régulant la biologie des organismes multicellulaires, et formera une description complète de l'organisme entier, ouvrant de nouvelles voies vers la biologie des systèmes.


Interprétation des images

Les images radiographiques sont des représentations bidimensionnelles complexes de sujets tridimensionnels qui sont générées dans un format inconnu de l'individu moyen. Une expérience substantielle et une attention aux détails sont nécessaires pour devenir compétent en interprétation. Le début de l'interprétation radiographique est une étude correctement positionnée et exposée. Les études mal positionnées ou mal positionnées sont difficiles à interpréter, et une technique inappropriée diminue encore la quantité d'informations interprétables à partir de la radiographie.

Bien que l'interprétation soit facilitée par l'expérience, l'utilisation consciente d'une approche systématique d'évaluation de l'image améliorera les compétences de lecture même des personnes très expérimentées et garantira que les lésions dans les zones qui ne sont pas d'intérêt principal ou près du bord de l'image ne sont pas manquées. Cependant, de nombreuses études ont montré que l'expérience est le meilleur enseignant en ce qui concerne l'évaluation des radiographies. Ainsi, bien que n'importe qui devienne plus habile à interpréter des images avec le temps, les personnes qui interprètent un grand nombre d'images seront les plus compétentes.

Même les individus compétents peuvent passer à côté de lésions qui ne leur sont pas familières, ou "lésions par omission". Une lésion par omission est une lésion dans laquelle une structure ou un organe généralement représenté sur l'image est manquant. A good example of this is the absence of one kidney or the spleen on an abdominal radiograph. Therefore, particular attention to systematic evaluation of the image is very important. It is perhaps best to begin interpretation of the image in an area that is not of primary concern. For instance, when evaluating the thorax of an animal with a heart murmur, the vertebral column and skeleton should be evaluated first, because if a substantial lesion is identified for the heart, it is possible that the skeletal structures may not be examined.

It is essentially impossible to evaluate radiographs without a preexisting bias as a result of knowledge of the history, physical examination findings, and previously performed laboratory results. This bias can easily promote under-evaluation of the image by focusing on only the area of interest associated with the bias. Even so, it is true that this knowledge of the history and signalment is necessary to achieve consistent and accurate interpretation of radiographic studies. 

Courtesy of Dr. Jimmy Lattimer.

Large, right-middle lung lobe mass: The ventral dorsal view (middle image) indicates the presence of an alveolar opacity in the right mid lung, which is not visible at all on the right lateral projection (right image). However, the mass is clearly seen on the left lateral view (left image). This lesion could have been completely missed on a radiographic examination consisting of a single right lateral view.

Interpretation of radiographic images depends on a pleural knowledge of anatomy and understanding of disease pathology. Anatomic changes, such as in size, shape, location/position, opacity, and margin sharpness represent the basis of radiographic interpretation. In addition, the degree of change, whether generalized throughout an organ or associated with other abnormalities, must be evaluated. The presence of lesions that do not affect the entirety of an organ, such as focal enlargement of the liver or focal opacification of the lung field, are strongly suggestive of localized disease such as tumors or bacterial infections. Conversely, lesions causing generalized change throughout an organ such as the liver or kidneys are most suggestive of a systemic disease such as viral infections or toxicities. Combinations of lesions in different locations or organs also help narrow down the potential diagnosis. Careful attention to the basic principles of interpretation and use of a careful systematic approach will often provide answers not readily apparent on initial examination.

Once all of the lesions on the study are identified, a rational cause for those lesions can be formulated. The maximum amount of information is derived from the radiographic study when interpretation is done in light of the clinical and clinicopathologic information available. In this way, the most likely cause for the animal’s condition can be determined. However, many diseases can cause similar radiographic lesions, and radiographs must be interpreted in light of the entire gestalt of lesions present and not based on any single lesion if multiple abnormalities are present. In many cases, it is appropriate and advisable to seek the opinion of a radiologist for interpretation of radiographic images, particularly as the number of radiographic studies available and potential diagnoses proliferate.


Remerciements

The authors would like to thank all members of the Zhou laboratory at the Nanjing Agricultural University, the National Institute of Agricultural Botany (Cambridge Crop Research) and Earlham Institute, as well as the Penfield Group at John Innes Centre for fruitful discussions and cross-disciplinary collaborations. We thank Mark Scoles in the Desktop Support team at the department of Norwich BioScience Institutes Partnership (NBIP) Computing and John Humble in the Equipment Services team at the NBIP Facilities department for excellent technical support in networking and hardware manufacture. We also thank researchers at the John Innes Centre and the University of East Anglia for constructive suggestions. We gratefully acknowledge the support of the NVIDIA Corporation with the award of the Quadro GPU used for this research. The authors declare no competing financial interests.

JZ was partially funded by the United Kingdom Research and Innovation (UKRI) Biotechnology and Biological Sciences Research Council's (BBSRC) Designing Future Wheat Strategic Programme (BB/P016855/1) to Graham Moore and BBS/E/T/000PR9785 to JZ JC was supported by BBSRC's National Productivity Investment Fund CASE Award (BB/S507441/1 to JZ), hosted at Norwich Research Park Biosciences Doctoral Training Partnership (BB/M011216/1), in collaboration with RB at Syngenta DR was partially supported by the Core Strategic Programme Grant (BB/CSP17270/1) at the Earlham Institute AB, TLC and DW were partially supported by NRP's Translational Fund (GP072/JZ1/D) and Syngenta's industrial collaboration fund (GP104/JZ1/D) awarded to JZ WL and JZ were also supported by Jiangsu Collaborative Innovation Center for Modern Crop Production. This work has been supported by the UK Biological and Biotechnology Research Council (BBSRC) via grant BB/P013511/1 to the John Innes Centre.


Comparative study of the fullness of dwarf Siberian pine seeds Pinus pumila (Pall.) Regel from places of natural growth and collected from plants introduced in northwestern Russia by microfocus X-ray radiography to predict their sowing qualities

As a result of analysis of the quality of Pinus pumila seeds by the method of microfocus X-ray radiography in combination with the automatic analysis of digital X-ray images, it was found that the best characteristics of individual structures and organs of seeds were demonstrated in samples collected from trees growing at site 71 of BIN RAS the worst — from seeds taken from South Sakhalin. The seeding qualities of Pinus pumila seed samples were determined by standard methods. Based on analysis of the characteristics of digital X-ray images of Pinus pumila seeds, it was found that a seed sample from site 71 BIN RAS was characterized by the high level of embryo area 4.19±0.49 mm 2 , maximum embryo to thalus ratio 60.95±7.45 %, high level of endosperm area 23.93±1.24 mm 2 , and maximum ratio square of embryo area 9.45 ±1.17 %. The same sample was characterized by a maximum weight of 1000 seeds and a maximum absolute and soil germination ratio, compared to other samples. The obtained data showed that Pinus pumila seeds collected from plants introduced in northwestern Russia by most parameters are not inferior or are even superior to seeds from the natural range.

Dwarf Siberian pine, Pinus pumila, seed quality, X-ray radiography of seeds, seed image analysis, soil germination of seeds


Automatic cropping of collimated digital X-ray images - Biology

OBJECTIVE. The purpose of this review is to summarize 10 steps a practice can take to manage radiation exposure in pediatric digital radiography.

CONCLUSION. The Image Gently campaign raises awareness of opportunities for lowering radiation dose while maintaining diagnostic quality of images of children. The newest initiative in the campaign, Back to Basics, addresses methods for standardizing the approach to pediatric digital radiography, highlighting challenges related to the technology in imaging of patients of widely varying body sizes.

Radiography is the most common type of examination performed in diagnostic imaging. The 2006 National Council on Radiation Protection and Measurements report 160 [1] states that 74% of all radiologic examinations are radiography. In a 2005–2007 survey of five large health care markets, radiography represented 85% of all ionizing radiation imaging examinations of children [2]. Chest radiography was the most common examination performed, followed by extremity, spinal, and abdominal examinations. During the 3-year period of the survey, 40% of the children underwent at least one radiographic examination, 22% underwent two examinations, and 14% underwent three or more examinations. For all ionizing radiation examinations combined, a child is expected to undergo more than seven studies by 18 years of age.

Digital radiography has largely replaced film-screen radiography throughout the United States. Radiologists, radiologic technologists, and medical imaging physicists are responsible for understanding and properly using digital radiography. Although digital images can be acquired with a low radiation dose, without careful attention the exposure factors can increase over time, resulting in overexposure of patients, a phenomenon called exposure creep [3].

The purpose of the Image Gently campaign is to promote radiation protection of children. The newest initiative developed by the digital radiography committee, called Back to Basics, addresses methods of standardizing the approach to pediatric digital radiography. It highlights the challenges related to the technology used for imaging of patients of widely varying body sizes. The purpose of this review is to describe 10 steps that a practice can take to manage radiation exposure in pediatric digital radiography. The basics of digital radiography are reviewed, and technology, terminology, and quality assurance are briefly described. In going Back to Basics ( Fig. 1 ), the approach standardized for film-screen radiography still applies for digital radiography of children.

Fig. 1 —Poster for Image Gently campaign. (Reproduced with permission of Alliance for Radiation Safety in Pediatric Radiology)

Digital radiography (Table 1) encompasses both computed radiography and direct digital radiography. These technologies digitally capture an x-ray image, replacing analog film-screen cassettes as image receptors. Computed radiography is performed with a photostimulable storage phosphor imaging plate that absorbs energy from the x-rays exiting a patient's body to form an invisible image. The cassette is placed in a laser reader, which scans the plate, creating a visible digital image on a monitor in 30–40 seconds. Europium-activated barium fluorohalide (BaFX:Eu 2+ ) powder phosphor imaging plates are the most common type for computed radiography. Needle phosphors composed of cesium bromide (CsBr) also have been developed and have improved physical properties [4] that reduce exposure of the patient [5].

Direct digital radiography is performed with x-ray sensors bonded onto thin-film transistor integrated circuits that rapidly convert the image stored on the sensor to a visible digital image, eliminating the need for a separate scanning step. Direct digital radiography can entail either direct detection (converting x-rays into electronic charge) or indirect detection (first converting x-rays into light, which is then converted to an electronic charge), resulting in readouts that are much faster (typically less than 10 seconds) than those of computed radiography [4]. Selenium is the most common material used for direct conversion digital radiography. Cesium iodide and gadolinium oxysulfide (Gd2O2S) are most commonly used for indirect conversion digital radiography.

Digital radiography has several advantages over traditional film-screen radiography. It has a latitude of exposure approximately 100 times that of film-screen radiography [6], reducing the number of examinations repeated because of underexpo-sure or overexposure. Image manipulation (processing) is possible for changing the appearance of the image, making subtle characteristics in the image more apparent. The electronic images can be stored and distributed anywhere in the hospital network [7], allowing point-of-care access to the images within minutes after exposure. Although the spatial resolution (sharpness) of digital images is typically less than that of a film-screen image (on the order of 2.5–3.5 line pairs per millimeter for digital radiography versus 5 line pairs per millimeter or greater for film-screen radiography [4]), the superior contrast and other improvements in image quality, including image processing available only on digital images, result in superior clinical examinations with digital radiography [4].

The performance of a digital imaging system can be characterized by its spatial resolution and noise level under different exposure conditions. Together these qualities determine the efficiency of an imaging system in converting the x-ray pattern in space that passes through the patient into an image. Detective quantum efficiency (DQE) is the measure of this efficiency [8]. DQE is a function of spatial frequency, which is related to object size (high-spatial-frequency information is needed to see small objects). An ideal detector would have a DQE of 1.0 across all spatial frequencies. Experiments have shown that at lower effective beam energies, such as those used commonly in pediatric radiography, digital radiography with the newest columnar cesium iodide phosphor can achieve up to a 30% higher DQE than computed radiography and film-screen radiography [9, 10]. The higher the DQE, the less radiation exposure is needed to achieve the same image quality.

Radiologists, radiologic technologists, and medical physicists must leverage the strengths and weaknesses of each of their detectors to optimize exposure factors and reduce doses, especially when imaging children.

In the past, at film-screen radiography radiologists and radiologic technologists had immediate and direct feedback about overexposure and underexposure. An overexposed image was too black, and an underexposed image was too white. The radiographic optical density of film-screen images was directly coupled with the exposure technique.

Digital radiography is fundamentally different: The optical density feedback to radiologists and radiologic technologists is lost [11]. Image processing is designed to produce adequate gray-scale images of the correct brightness despite underexposure or overexposure. Underexposed images have fewer x-rays absorbed by the detector, resulting in increased quantum mottle. If the underexposure is substantial, radiologists recognize and object to the marked noisy and grainy appearance and may request a repeat image. Increased exposure reduces noise at digital radiography. The radiologist may not recognize this subtle reduction in grainy appearance in the image. Thus overexposed images may go unnoticed, resulting in needless overexposure and potential harm to the patient. This recognition of underexposed, noisy images and lack of recognition of overexposed images is analogous to CT exposure concerns.

The image acquisition process varies by vendor and equipment type, and radiologic technologists must adjust techniques accordingly. The techniques required to achieve optimal digital radiographs probably will be different from those used for film-screen radiography [10]. Furthermore, different digital detectors may require different techniques owing to differences in efficiency (quantitated as DQE) [10]. The differences in technique between digital systems can cause confusion and result in varying image quality at facilities where more than one vendor or detector system is in use. Operators should determine a standard approach to producing consistent, high-quality digital radiographs based not on image brightness on the monitor but on feedback provided from detector exposure indicators and individual image-quality analysis.

Each manufacturer has a proprietary method of estimating exposure to the image receptor, which can be used to indicate the adequacy of radiographic technique [11]. When only a small number of manufacturers existed, it was relatively easy to learn and use the proprietary language. Now more than 15 manufacturers of digital radiographic equipment are in the market. Hospitals frequently have more than one detector type from more than one vendor, making it much more difficult for radiologic technologists and radiologists to become familiar with proprietary exposure terminology.

Standardized terminology was espoused by the 2004 conference on the as low as reasonably achievable (ALARA) principle in digital radiography [3] and by medical physicists. The International Electrotechnical Commission (IEC) [12], a standards-writing body, and the American Association of Physicists in Medicine [13] subsequently and independently developed standardized terminology designed to eliminate proprietary terminology for equipment installed in the future. In part because of the advocacy that occurred at the Image Gently Digital Radiography Summit in 2010 [14], manufacturers, through the Medical Imaging and Technology Alliance, publicly agreed to adopt the IEC standard [15].

Radiologists, radiologic technologists, and medical physicists have three important terms to learn from the IEC standard: target exposure index (EIT), exposure index (EI), and deviation index (DI) [16]. The EIT represents the ideal exposure at the image receptor. The EIT is programmed for each anatomic examination and each imaging apparatus. It can be set by either the manufacturer or the user facility. The EI is a direct, linear measure with respect to the tube current–exposure time product of radiation exposure at the image receptor in the relevant region of the image it is not a patient dose metric. Among other factors, the EI depends on the body part selected the body part thickness the tube voltage, measured as peak kilovoltage the added filtration in the x-ray beam and the type of detector. For the same patient, body part, tube voltage, and filtration selected, doubling the tube current–exposure time product will double the EI. The DI indicates to the radiologic technologist and the radiologist the degree to which the EI for an imaging examination deviates from the EIT. The DI is defined as 10 × log10 (EI / EIT).

In an ideal situation in which the EI equals the EIT, the DI is zero. If the EI is higher than the EIT (overexposed), the DI is positive, and if it is lower than the EIT (underexposed), the DI is negative. A DI of −1 is 20% below the appropriate exposure, and 1 is 26% overexposure. Furthermore, a DI of ± 3 indicates halving or doubling of the exposure relative to the EIT. The DI serves as an immediate feedback number to both the radiologic technologist and interpreting radiologist, indicating the adequacy of the exposure. The goal is DI values in the range −1 to 1, with very few images less than −3 or greater than 3.

The new standard is expected to reduce confusion resulting from the current proprietary terminology. It is, however, only one factor in image quality—the presence of noise on the image. Proper positioning, elimination of patient motion, appropriate use of grids, and collimation will have to be checked in each examination to ensure image quality.

The trio of automatic exposure control (AEC) sensors, commonly used for imaging of adults, is often problematic in children if the body part is smaller than the three AEC sensors [17] ( Fig. 2 ). On some equipment, AEC can be used for children if only the center sensor is activated and the child's body part is positioned to completely cover the entire single sensor. However, for smaller children, the anatomic area imaged may be smaller than the single central sensor. Thus manual techniques may be most appropriate for small children. To use a manual technique, one must develop pediatrics-specific technique charts. Establishing technique charts for common examinations in digital radiology is similar to the process for CT. Size-, weight-, or body part circumference–generated technique charts are used to appropriately size the tube current–exposure time product and tube voltage settings for each patient.

2 —Photograph shows relative location of two of three automatic exposure control (AEC) chambers (pink circles) as outside thorax of infant model. Simulation of examination of tiny infant underscores difficulty with use of AEC chambers for pediatric patients. (Reprinted with permission of Springer Science+Business Media from [17])

The technique chart should be established by a team consisting of radiologists, radiologic technologists, and medical physicists with input from the manufacturer. The radiologist understands the clinical indications and the amount of noise to tolerate when interpreting the examination. The radiologic technologist is familiar with the technical factors (tube voltage, tube current–time product, grid, source-to-image distance, added filtration) and capabilities of each room. The medical physicist understands the science of image formation, the physics of the detector, and optimum image processing. The manufacturer is knowledgeable about its equipment and can serve as a resource for appropriate use in pediatrics. The manufacturer may refer the team to an appropriate children's hospital for technique suggestions. In a department unfamiliar with the equipment, the approach should start with a limited number of common examinations, such as chest, abdomen, and small parts such as hands and feet. As one becomes more familiar with a standard approach, additional examinations and body parts can be added to complete the technique chart.

The technique charts should be specific to each detector model. For example, an older powder-phosphor computed radiography system may require more exposure than a higher DQE cesium iodide digital radiography detector for the same examination. Each detector may require its own tailored technique chart.

Many vendors have different processing programs for children and adults for the same body part. Image processing differs for pediatric and adult patients, especially for chest radiographs [18, 19]. The anatomically programmed radiographic techniques must be reviewed and adjusted to assure that appropriate values are included for both AEC and manual technique selection. Use of preprogrammed adult techniques for pediatric imaging may not result in the appropriate image quality or patient dose.

X-ray absorption and transmission depend on the composition of the body part being imaged and its thickness. Patient age is a poor substitute for thickness. As with any projection radiograph, body part thickness is the most important determinant of the technique. The abdomens of the largest 3-year-olds are the same size as the abdomens of the smallest 18-year-old [20]. One cannot reliably use patient age as a guide for technique.

Going Back to Basics by measuring patients with calipers will ensure that a standardized technique is selected. Knowing the body part and its thickness, one can then set the tube voltage, filtration, and tube current–exposure time product for that specific examination to appropriately size the examination for the child on the basis of the technique chart. The goal is to obtain reproducible, consistent images for children with body parts of the same thickness.

The main purpose of antiscatter grids is to remove scatter from the image to improve the subject contrast on the image. Scatter starts to markedly degrade subject contrast on an image when the body part is at least 10–12 cm of water-equivalent thickness [21, 22]. The composition of the body part also determines when a grid may be beneficial. A solid body part (not an air-containing part such as the lung), for instance the abdomen, pelvis, or spine, may benefit from use of a grid when it is more than 12 cm thick. Structures that are more than 12 cm thick and contain air, especially the chest, can be successfully imaged without a grid. Imaging of larger x-ray field areas, increasing tube voltage, and additional filtration in the x-ray beam increase the production of scatter [23]. Depending on the grid selected, antiscatter grids double or triple the exposure factors necessary to obtain an adequate image [23]. Therefore, removing the grid when it is not necessary greatly reduces patient exposure.

Both the American College of Radiology– Society for Pediatric Radiology [24] and the American College of Radiology–American Association of Physicists in Medicine–Society for Imaging Informatics [25] guidelines for digital radiography state that grids should be used sparingly in pediatrics. Both sets of guidelines state that grids should not be routinely used for extremity imaging or for imaging of body parts with thicknesses of 10–12 cm or less. Furthermore, if a lower peak kilovoltage technique is used, a grid may not be necessary for imaging some areas of the body that are predominantly bone [23].

With the advent of digital radiography, it is possible to open the collimators and manipulate and electronically crop an image after the exposure. In a recent American Society of Radiologic Technologists survey of digital radiology trends, almost 50% of the technologists reported using electronic cropping of the image after the exposure 75% of the time [26]. Radiologists may not be aware that cropping is occurring ( Fig. 3 ), yet radiologists are responsible for the image before cropping occurs. The cropped portions of the body are exposed to unnecessary radiation. Although opening the collimators may occasionally be necessary for inclusion of structures such as an arm in a percutaneously inserted central venous catheter, under the best of circumstances it is better to immobilize the patient and colli-mate appropriately before the exposure rather than crop the image after the exposure [17].

3 —Portable chest radiograph of infant. Request was made to include left arm for percutaneously inserted central venous catheter placement. Collimators were left open, unnecessarily exposing entire torso and portions of extremities. Image was cropped to insert box for interpretation. (Reproduced with permission of Alliance for Radiation Safety in Pediatric Radiology)

Collimation is necessary to eliminate x-ray exposure of body parts not affecting the clinical diagnosis to reduce the area exposed and lower the dose area product (DAP). Collimation also reduces scatter radiation, improving image quality [27]. A well-collimated field improves the accuracy of the image processing. Extraneous structures outside the area of interest, such as shields, are excluded and prevented from negatively affecting the applied image processing. When collimators are open, extraneous body parts and free-in-air exposure affect the exposure indicator [17].

The radiologist should become familiar with technical factors used for common pediatric radiographic examinations. This requires that the tube voltage, tube current–exposure time product, added beam filtration, exposure indicators including EI, and, especially, DI are present on the displayed image. Pediatric radiologists and physicists have been advocating this position since the ALARA conference in 2004 [3]. Ideally DAP meter results should also be displayed. (DAP meters are not required in the United States but are required in Europe.) The image-processing organ program (such as portable chest, abdomen, hand) should also be displayed. These displayed values provide feedback to the radiologist and can be used to help solve problems when an image is not acceptable ( Fig. 4 ).

4 —Infant chest radiograph displays International Electrotechnical Commission standard technique factors (arrow) in left lower corner: EI = exposure index, DI = deviation index, DAP = dose area product, kvp = tube voltage, mAs = tube current–exposure time product in milliampere-seconds, microAs = tube current–time product in microampere-seconds, Grid = grid used or not used, last line = image processing. In this case DI is zero, indicating that EI is same as target exposure index (EIT, not displayed), and exposure technique is optimal. (Courtesy of Ann and Robert H. Lurie Children's Hospital of Chicago)

Radiologists prefer images that have little noise [28] however, noise intolerance can lead to exposure creep. To avoid exposure creep, radiologists need to become familiar with the exposure indicators for their equipment and understand the relation between exposure indicators (e.g., EI) and the visual appearance of noise on an image. Once this relation is understood, an appropriate target exposure value (EIT) can be established, and the DI can be calculated and displayed at the interpreting workstation. With routine monitoring of the appropriateness of the technique based on the level of image noise along with the DI, exposure creep be avoided.

Radiologists may be tolerant of more noise in some body tissues than in others. For example, noise has a lesser effect on visualization of high-resolution structures, such as bones, endotracheal tubes, and chest tubes [28]. The ability to identify disease processes, such as surfactant deficiency and respiratory distress syndrome of the premature newborn, and low-contrast structures is more noise sensitive [29, 30]. As users become more comfortable with the technique-noise relation of digital radiography, lower-dose follow-up examinations (as after adjustment of line placement) tailored to answer a specific question may become more common.

It is critical that radiologists, radiologic technologists, and physicists develop standards for their institutions, using a team approach to assure diagnostic image quality at a properly managed dose for pediatric patients. A 2012 study [31] showed that as many as 40% of digital radiographs obtained from one adult center were overexposed. The same center noted that exposure creep was occurring in ICU examinations. Exposures of 43% of computed radiographs at a pediatric center were also reported to be overexposed [28]. By recording and monitoring exposure indicators, an individual hospital can control and reverse exposure creep [31]. Analyzing the percentage of images that fall within and outside an acceptable range can be used to educate radiologic technologists and decrease the variation while improving the image quality goals of the department.

With the advent of digital imaging, much information is contained in the header of the DICOM image, which can be exported and used in a quality assurance program. The Integrating the Healthcare Enterprise radiation exposure monitoring profile facilitates collection and distribution of exposure information [32]. This is an easy method of exporting routine evaluation of the performance metrics of digital radiography for analysis by the quality assurance team. Coupled with the new IEC standard, there is a common terminology that can be used for an individual hospital to develop its own quality assurance program. One center used the new IEC standard for monitoring EI in an individual neonatal ICU over a 3-month period and found no tendency toward exposure creep [33].

Groups of hospitals with similar image receptors will be able to collaborate on their exposure techniques and exposure indicator ranges using DICOM structured reports and the Integrating the Healthcare Enterprise radiation exposure monitoring profile. This type of collaboration has already occurred with four neonatal ICUs at four children's hospitals using a single manufacturer's equipment and the new IEC standard. In that study [34], two hospitals had older powder-phosphor plates and two hospitals had newer cesium bromide needle-phosphor plates. The mean EI for the four hospitals varied less than 50%, likely reflective of the noise tolerance of the individual departments. Those investigators used hospitals' existing techniques and made no systematic change in technical factors to take advantage the higher DQE of the needle phosphor. With more experience and education, it may be possible for collaborating hospitals to modify their exposure techniques to take full advantage of newer technologies to reduce exposure.

It is likely that in the future there will be national standards of diagnostic reference levels to help radiology departments to compare their digital radiographic techniques. The American College of Radiology has a dose index registry [11] program for which a digital radiography registry has been approved [14]. It is likely that diagnostic reference levels will be developed from these data on the basis of detector type, body part, and thickness.

Pediatric digital radiography, although an imaging modality that entails less ionizing radiation than CT, is commonly performed at both adult and pediatric facilities. Increased knowledge of this versatile and efficient technology will give radiologists and radiologic technologists a basis for standardizing an approach to imaging of pediatric patients, thereby reducing the tendency for excess radiation through exposure creep. The new Image Gently Back to Basics campaign is a reminder that a consistent approach to technical factors based on body part thickness, elimination of grids when not needed, appropriate collimation, and a rigorous quality assurance program that tracks the new exposure indicators should improve image quality and properly manage the radiation dose during pediatric imaging.

S. Don has received research funding from Carestream, Inc and is a speaker on digital radiography for Siemens.


Voir la vidéo: IMAGE RADIOLOGIQUE - PCEM2 (Janvier 2022).