Informations

1.1 : Contexte - Biologie


Lignes de commande et systèmes d'exploitation

De nombreux systèmes d'exploitation, y compris Microsoft Windows et Mac OS X, incluent une interface de ligne de commande (CLI) ainsi que l'interface utilisateur graphique standard (GUI). Dans ce livre, nous nous intéressons principalement aux interfaces de ligne de commande incluses dans le cadre d'un système d'exploitation dérivé de l'environnement historiquement naturel pour le calcul scientifique, Unix, y compris les différentes distributions Linux (par exemple, Ubuntu Linux et Red Hat Linux), BSD Unix, et Mac OS X.

Même ainsi, une compréhension des systèmes d'exploitation informatiques modernes et de la façon dont ils interagissent avec le matériel et les autres logiciels est utile. Un système d'exploitation est vaguement considéré comme l'ensemble de logiciels qui gère et alloue le matériel sous-jacent, en répartissant le temps que chaque utilisateur ou programme peut utiliser sur l'unité centrale (CPU), par exemple, ou en enregistrant les fichiers secrets d'un utilisateur. sur le disque dur et en les protégeant de l'accès par d'autres utilisateurs. Lorsqu'un utilisateur démarre un programme, ce programme est « possédé » par l'utilisateur en question. Si un programme souhaite interagir avec le matériel de quelque manière que ce soit (par exemple, pour lire un fichier ou afficher une image à l'écran), il doit canaliser cette demande via le système d'exploitation, qui traitera généralement ces demandes de telle sorte qu'aucun programme ne puisse monopoliser l'attention du système d'exploitation ou du matériel.

La figure ci-dessus illustre les quatre principales ressources « consommables » disponibles pour les ordinateurs modernes :

  1. Le processeur. Certains ordinateurs ont plusieurs processeurs et certains processeurs ont plusieurs « cœurs » de traitement. Généralement, s'il y a m noyaux totaux et k programmes en cours d'exécution, chaque programme peut accéder à m/k puissance de traitement par unité de temps. L'exception est lorsqu'il existe de nombreux processus (disons, quelques milliers) ; dans ce cas, le système d'exploitation doit passer un temps considérable à simplement basculer entre les différents programmes, réduisant ainsi la quantité de puissance de traitement disponible pour tous les processus.
  2. Disques durs ou autre « stockage persistant ». De tels disques peuvent stocker de grandes quantités de données, mais l'accès est assez lent par rapport à la vitesse à laquelle le processeur fonctionne. Le stockage persistant est généralement disponible via des lecteurs distants « mappés » sur le réseau, ce qui rend l'accès encore plus lent (mais peut-être offrant beaucoup plus d'espace).
  3. RAM ou mémoire vive. Parce que les disques durs sont si lents, toutes les données doivent être copiées dans la RAM « mémoire de travail » pour être accessibles par le processeur. La RAM est beaucoup plus rapide mais aussi beaucoup plus chère (et fournit donc généralement moins de stockage total). Lorsque la RAM est pleine, de nombreux systèmes d'exploitation tentent d'utiliser le disque dur comme s'il s'agissait de RAM (appelé « permutation » car les données sont constamment échangées dans et hors de la RAM). En raison de la différence de vitesse, il peut sembler à l'utilisateur que l'ordinateur s'est écrasé, alors qu'en réalité il fonctionne simplement à un rythme glacial.
  4. La connexion réseau, qui donne accès au monde extérieur. Si plusieurs programmes souhaitent accéder au réseau, ils doivent partager le temps sur la connexion, un peu comme pour le CPU.

Parce que les interfaces logicielles que nous utilisons tous les jours, celles qui nous montrent nos icônes de bureau et nous permettent de démarrer d'autres programmes, sont si omniprésentes que nous les considérons souvent comme faisant partie du système d'exploitation. Techniquement, cependant, ce sont des programmes qui sont exécutés par l'utilisateur (généralement automatiquement lors de la connexion ou du démarrage) et doivent faire des requêtes au système d'exploitation, comme tout autre programme. Les systèmes d'exploitation tels que Microsoft Windows et Mac OS X sont en réalité des systèmes d'exploitation regroupés avec de vastes suites de logiciels utilisateur.

Une histoire brève

L'histoire complète des systèmes d'exploitation utilisés par les chercheurs en informatique est longue et complexe, mais un bref résumé et une explication de plusieurs termes et acronymes couramment utilisés tels que BSD, « open source » et GNU peuvent être intéressants. (Les lecteurs impatients peuvent à ce stade avancer, bien que certains concepts de cette sous-section puissent aider à comprendre la relation entre le matériel informatique et les logiciels.)

Des recherches fondamentales sur la façon dont les composants physiques qui composent les machines informatiques devraient interagir avec les utilisateurs par le biais de logiciels ont été effectuées dès les années 1950 et 1960. Au cours de ces décennies, les ordinateurs étaient des machines rares de la taille d'une pièce et étaient partagés par un grand nombre de personnes. Au milieu des années 1960, des chercheurs de Bell Labs (alors propriété d'AT&T), du Massachusetts Institute of Technology et de General Electric ont développé un nouveau système d'exploitation connu sous le nom de Multics, abréviation de Multiplexed Information and Computing Service. Multics a introduit un certain nombre de concepts importants, notamment des avancées dans l'organisation des fichiers et l'allocation des ressources à plusieurs utilisateurs.

Au début des années 1970, plusieurs ingénieurs des Bell Labs n'étaient pas satisfaits de la taille et de la complexité de Multics, et ils ont décidé de reproduire la plupart des fonctionnalités dans une version allégée qu'ils ont appelée UNICS - cette fois abréviation de Uniplexed Information and Computing Service - un joue sur le nom Multics mais ne dénote pas une différence majeure de structure. Au fur et à mesure de l'avancement des travaux, le système d'exploitation a été renommé Unix. D'autres développements ont permis au logiciel d'être facilement traduit (ou porté) pour une utilisation sur du matériel informatique de différents types. Ces premières versions de Multics et Unix ont également été pionnières dans le partage automatique et simultané des ressources matérielles (telles que le temps CPU) entre les utilisateurs, ainsi que des fichiers protégés appartenant à un utilisateur par rapport à d'autres, des fonctionnalités importantes lorsque de nombreux chercheurs doivent partager une seule machine. (Ces mêmes fonctionnalités nous permettent d'effectuer plusieurs tâches sur les ordinateurs de bureau modernes.)

Pendant ce temps, AT&T et sa filiale Bell Labs se sont vu interdire par la législation antitrust de commercialiser des projets non directement liés à la téléphonie. En tant que tels, les chercheurs ont concédé gratuitement des copies du logiciel Unix à toutes les parties intéressées. La combinaison d'une technologie robuste, d'une portabilité aisée et d'un coût gratuit a assuré qu'il y avait un grand nombre d'utilisateurs intéressés, en particulier dans le monde universitaire. En peu de temps, de nombreuses applications ont été écrites pour fonctionner sur le framework Unix (dont nous utiliserons beaucoup dans ce livre), représentant un environnement informatique puissant même avant les années 1980.

Au début des années 1980, le procès antitrust contre AT&T a été réglé et AT&T était libre de commercialiser Unix, ce qu'ils ont fait avec ce que nous ne pouvons que présumer être de l'enthousiasme. Sans surprise, les nouvelles conditions et les nouveaux coûts n'étaient pas favorables pour la base d'utilisateurs d'Unix en grande partie académique et axée sur la recherche, suscitant une grande inquiétude pour beaucoup de personnes si fortement investies dans la technologie.

Heureusement, un groupe de chercheurs de l'Université de Californie (UC), Berkeley, travaillait sur ses propres recherches avec Unix depuis un certain temps, les réorganisant lentement de l'intérieur vers l'extérieur. À la fin de la poursuite antitrust d'AT&T, ils avaient produit un projet qui ressemblait et fonctionnait comme Unix d'AT&T : BSD (pour Berkeley Systems Distribution) Unix. BSD Unix a été publié sous une nouvelle licence logicielle connue sous le nom de licence BSD : n'importe qui était libre de copier le logiciel gratuitement, de l'utiliser, de le modifier et de le redistribuer, tant que tout ce qui était redistribué était également publié sous la même licence BSD et crédit a été accordé à UC Berkeley (cette dernière clause a ensuite été abandonnée). Les versions modernes de BSD Unix, bien que peu utilisées dans les universités, sont considérées comme des systèmes d'exploitation robustes et sécurisés, bien qu'elles manquent souvent de fonctionnalités de pointe ou expérimentales.

La même année où AT&T a cherché à commercialiser Unix, l'informaticien Richard Stallmann a répondu en fondant la Free Software Foundation (FSF), à but non lucratif, qui se consacre à l'idée que les logiciels devraient être libres de propriété et que les utilisateurs devraient être libres d'utiliser, le copier, le modifier et le redistribuer. Il a également initié le projet de système d'exploitation GNU, dans le but de recréer l'environnement Unix sous une licence similaire à celle de BSD Unix. (GNU signifie GNU's Not Unix : un acronyme récursif et auto-référentiel illustrant l'humour particulier des informaticiens.)

Le projet GNU a mis en œuvre un schéma de licence quelque peu différent de la licence BSD. Le logiciel GNU devait être concédé sous licence selon des conditions créées spécifiquement pour le projet, appelées GPL, ou GNU Public License. La GPL permet à quiconque d'utiliser le logiciel comme bon lui semble (y compris la distribution gratuite ou la vente de tout programme construit à l'aide de celui-ci), à condition qu'ils mettent également à disposition le code lisible par l'homme qu'ils ont créé et qu'ils l'autorisent sous la GPL comme bien (l'essence de "open source"[1]). C'est comme si la Ford Motor Company avait donné les plans d'une nouvelle voiture, avec l'exigence que toute voiture conçue à l'aide de ces plans soit également livrée avec ses propres plans et règles similaires. Pour cette raison, les logiciels écrits sous GPL ont une tendance naturelle à se répandre et à se développer. Ironiquement et ingénieusement, Richard Stallmann et le groupe BSD ont utilisé le système de licence, généralement destiné à protéger la diffusion de la propriété intellectuelle et à l'origine de la crise Unix des années 1980, pour assurer la liberté perpétuelle de leur travail (et avec lui, l'héritage Unix) .

Alors que Stallmann et la FSF ont réussi à recréer la plupart des logiciels qui composaient l'environnement Unix standard (le logiciel fourni), ils n'ont pas immédiatement recréé le noyau du système d'exploitation (également appelé noyau). En 1991, l'étudiant en informatique Linus Torvalds a commencé à travailler sur ce composant central sous licence GPL, qu'il a nommé Linux (prononcé "lin-ucks", comme l'a prescrit l'auteur lui-même). De nombreux autres développeurs ont rapidement contribué au projet, et maintenant Linux est disponible dans une variété de "distributions", telles que Ubuntu Linux et Red Hat Linux, y compris à la fois le noyau Linux et une collection de GPL compatibles Unix (et parfois non GPL ) Logiciel. Les distributions Linux diffèrent principalement par les packages logiciels fournis avec le noyau et la manière dont ces packages sont installés et gérés.

Aujourd'hui, un nombre important de projets logiciels sont publiés sous GPL, BSD ou des licences « ouvertes » similaires. Ceux-ci incluent à la fois les projets Python et R, ainsi que la plupart des autres logiciels couverts dans ce livre. En fait, l'idée a également fait son chemin pour les projets non codés, avec de nombreux documents (y compris celui-ci) publiés sous des licences ouvertes comme Creative Commons, qui permettent à d'autres d'utiliser du matériel gratuitement, à condition que certaines dispositions soient respectées.



1.1 Définitions de la durabilité

Le terme durabilité a une utilisation et une signification multidisciplinaires. Dans les dictionnaires, la durabilité est généralement décrite par de nombreuses sources comme la capacité d'un système à se maintenir et à se maintenir. Différentes disciplines peuvent appliquer ce terme différemment.

Dans l'histoire de l'humanité, le concept de durabilité était lié aux systèmes écologiques dominés par l'homme des premières civilisations à nos jours. Une société particulière peut connaître une croissance locale et un succès de développement, qui peuvent être suivis de crises qui ont été soit résolues, entraînant une durabilité, soit non résolues, entraînant un déclin.

En écologie, le mot durabilité caractérise la capacité des systèmes biologiques à rester sains, diversifiés et productifs au fil du temps. Les zones humides et les forêts durables et saines sont des exemples de systèmes biologiques durables.

Depuis les années 1980, durabilité en tant que terme a été utilisé davantage dans le sens de la durabilité humaine sur la planète Terre et cela nous amène au concept de le développement durable qui est défini par la Commission Brundtland des Nations Unies (20 mars 1987) comme suit : "Le développement durable est un développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs." La vidéo suivante approfondira cette définition et donnera quelques exemples sur sa signification.

Avec la prise de décision humaine impliquée, la durabilité atteint un aspect éthique important et transforme le paradigme social sur le succès, la croissance, le profit, le niveau de vie. Cette réévaluation nécessite une vue d'ensemble plus large et plus synergique de nombreuses composantes des écosystèmes anthropologiques, y compris la technologie.

Le thème du développement durable a pris suffisamment d'importance au cours des dernières décennies du 20e siècle pour devenir un point de discussion central lors de l'Assemblée générale des Nations Unies (ONU) de 1987. Préoccupée par la détérioration rapide de l'environnement humain, le développement inégal, la pauvreté, la croissance démographique, la pression extrême sur les terres, l'eau, les forêts et les autres ressources naturelles de la planète, l'ONU a lancé un appel urgent à la Commission mondiale sur l'environnement et le développement pour qu'elle formule un " agenda mondial pour le changement" [ONU, 1987]. Le résultat de cette action a été le rapport "Notre avenir commun", qui a en outre servi de ligne directrice mondiale pour les nations du monde dans la formulation de leur agenda politique et économique. Ce document a maintenant près de 40 ans et a été suivi d'une longue série d'actions et de mouvements au cours des années suivantes. Mais revenons en arrière pour un peu et voir comment tout a commencé.

Le rapport original de 1987 préparé par la Commission mondiale sur l'environnement et le développement est un document volumineux (plus de 300 pages), je ne vous conseille donc pas de le lire tout de suite. La lecture suivante (environ 16 pages) est le chapitre 2 du rapport, qui traite spécifiquement du concept de développement durable. Ainsi, certains des termes, définitions et perspectives qui y sont décrits seront particulièrement utiles pour nos travaux et discussions futurs dans ce cours. Voici donc votre premier devoir de lecture :

Affectation de lecture:

Ce document résume un consensus sur le développement durable et décrit les stratégies qui devraient permettre d'atteindre les objectifs de durabilité. Adopté en 1987, il a servi de toile de fond à de nombreuses tentatives futures de formulation des principes de durabilité dans des domaines très divers : science, industrie, économie. La lecture de ce chapitre vous fournira des informations importantes sur la façon dont le mouvement du développement durable a commencé et sur les problèmes qui ont été les moteurs de la pensée durable il y a quatre décennies.

Pendant la lecture, prenez note du concept de croissance, de la façon dont il est interprété et des implications positives et négatives qui y sont associées. Ce contexte sera utile plus loin dans cette leçon alors que nous analyserons et discuterons de la question de la croissance sur le forum.

Trois piliers de la durabilité

Le développement durable implique des aspects environnementaux, économiques et sociaux. Pour qu'un processus particulier soit durable, il ne doit pas provoquer de changement irréversible dans l'environnement, doit être économiquement viable et doit profiter à la société. L'un des exemples d'illustration de l'interaction entre ces trois sphères est fourni ci-dessous dans la figure 1.1. La durabilité est représentée comme la synergie entre la société, l'économie et l'environnement. Les aspects environnementaux comprennent l'utilisation des ressources naturelles, la prévention de la pollution, la biodiversité et la santé écologique. Les aspects sociaux comprennent le niveau de vie, la disponibilité de l'éducation et des emplois, et l'égalité des chances pour tous les membres de la société. Les facteurs économiques sont des moteurs de croissance, de profit, de réduction des coûts et d'investissements dans la recherche et le développement, etc. Il existe d'autres facteurs qui affecteront la durabilité d'un système social - ces quelques-uns sont cités à titre d'exemples. L'interaction des sphères sociales et économiques aboutit à la formulation d'aspects socio-économiques combinés. Ce sont, par exemple, l'éthique des affaires, le commerce équitable et les avantages pour les travailleurs. Dans le même temps, la combinaison d'intérêts économiques et environnementaux facilite l'augmentation de l'efficacité énergétique, le développement de carburants renouvelables, de technologies vertes, ainsi que la création d'incitations et de subventions spéciales pour les entreprises respectueuses de l'environnement. L'intersection des sphères sociales et environnementales conduit à la création de politiques de conservation et de protection de l'environnement, à l'établissement d'une justice environnementale et à une gérance mondiale pour une utilisation durable des ressources naturelles. Ce cadre est en quelque sorte une simplification, mais il s'est avéré utile pour identifier les principaux domaines d'impact et jeter les bases d'une analyse objective. Plus loin dans ce cours, des processus et des technologies particuliers seront souvent évalués en termes d'impacts sociaux, économiques et environnementaux, même si nous devons comprendre que ces trois piliers ne sont jamais complètement isolés les uns des autres.

Dimensions de la durabilité

Les trois piliers de la durabilité mentionnés ci-dessus sont des termes très courants dans la littérature, les médias et les communications et véhiculent une idée simple à saisir. Cependant, les interconnexions entre ces trois piliers ne sont pas du tout simples et peuvent en fait se produire dans différents plans de pensée. Trois significations ou dimensions fondamentales de la durabilité ont été définies par Christian Becker dans son livre "Sustainability Ethics and Sustainability Research" comme continuation, orientation, et des relations. Pour comprendre la signification exacte de ces dimensions, veuillez vous référer à la lecture suivante. Comme discuté dans ce chapitre, la nature multidimensionnelle de la durabilité est quelque chose qui entraîne souvent une confusion et une mauvaise communication entre les différentes entités et sphères impliquées. Par exemple, un environnementaliste, un économiste et un politicien peuvent discuter de la durabilité en tant qu'objectif d'un projet, mais en ayant en fait trois objectifs différents en tête. Ainsi, les nouveaux développeurs de projets à l'ère de la durabilité devraient certainement chercher à élargir leur perspective et en même temps développer suffisamment de profondeur dans l'articulation de leur vision de la durabilité. Bonne lecture :

Affectation de lecture:

Chapitre du livre: C.U. Becker, Éthique du développement durable et recherche sur le développement durable, Chapitre 2 : Signification de la durabilité, Springer 2012, pages 9-15. (Disponible via E-Reserves dans Canvas.)

Lors de la lecture, portez une attention particulière aux différentes dimensions de la durabilité et aux raisons pour lesquelles elles doivent être reconnues. Réfléchissez – comment définiriez-vous le terme « durabilité » dans vos propres mots ?

Vérifiez votre compréhension - Point de réflexion

Maintenant que vous avez lu le texte de C. Becker, pensez à laquelle des trois significations de la durabilité mentionnées est la plus proche de votre état d'esprit. Quand vous entendez des gens parler d'économie durable, ou de société durable, à quoi pensez-vous en premier ? Réfléchissez également à la dimension de durabilité qui a fait défaut à votre vision. Êtes-vous d'accord avec l'auteur du chapitre sur le fait que les trois dimensions doivent être également incluses dans la discussion ?

Écrivez quelques phrases résumant vos pensées et gardez-les dans vos notes. Vous devrez peut-être revenir en arrière et utiliser votre réflexion plus tard dans l'introduction ou la discussion de votre projet de cours.


Remarque : il s'agit d'un devoir non noté - vous faites cette réflexion uniquement pour votre propre référence.

Si vous avez rempli la courte note de réflexion dans la case ci-dessus, bravo ! Vous trouverez qu'il est très utile d'écrire certaines des le tien pensées pendant que vous êtes encore frais de votre lecture.

Plus loin dans ce cours, nous revisiterons occasionnellement les définitions et les interprétations de la durabilité. C'est l'un des concepts qui définit le contexte de notre objectif principal dans ce cours - le rôle et l'évaluation de la technologie. Dans la prochaine section de cette leçon, nous commencerons à voir comment la technologie est parfois considérée comme la pierre angulaire du développement et de la survie de la société. Alors que certaines théories misent fortement sur la technologie comme solution universelle aux besoins toujours croissants de la société, d'autres sont beaucoup plus sceptiques. Alors, préparez-vous à une polémique.

Lecture complémentaire sur le développement durable

Ce document fournit un aperçu plus détaillé des objectifs de la communauté mondiale pour le développement durable. Vous n'êtes pas obligé de lire le document en entier, mais il peut être intéressant de le parcourir et de voir comment il fait suite aux directives initiales adoptées en 1987.


Contexte social, biologie et définition du trouble

Ces dernières années, les sociologues médicaux ont de plus en plus prêté attention à une variété d'interactions entre les facteurs sociaux et biologiques. Il s'agit notamment de l'impact des facteurs de stress sociaux sur le fonctionnement des systèmes physiologiques, de la manière dont les contextes socioculturels déclenchent des propensions génétiques ou atténuent les défauts génétiques, et de la façon dont le cerveau est adapté aux facteurs sociaux, culturels et interactionnels. Cet article se concentre sur la façon dont les forces socioculturelles et biologiques influencent les conditions qui sont des réponses ou des troubles contextuellement appropriés. Cela suggère également que certains des problèmes de santé les plus tenaces résultent de discordances entre les gènes naturels et les circonstances sociales actuelles plutôt que de défauts génétiques. Enfin, il examine comment les environnements sociaux ont des impacts profonds sur les dommages causés par les troubles. Il montre comment les connaissances sociologiques peuvent aider à établir des critères valides pour les maladies et indique les complexités impliquées dans la définition de ce que sont les véritables troubles.

Mots clés: biologie gènes et environnements troubles mentaux contexte social.


Quel contexte ?

Les garanties génétiques sont des mécanismes de bioconfinement et de contrôle qui seraient théoriquement applicables à une variété de cellules hôtes, indépendamment de leur application. Par exemple, une auxotrophie de phosphite synthétique a été mise en œuvre avec succès dans les deux Escherichia coli et les cyanobactéries pour réduire drastiquement le risque que ces cellules puissent s'échapper et survivre dans un environnement sans phosphite (Motomura et al, 2018 ). Un autre exemple est le recodage du génome, qui empêche le transfert horizontal de gènes et qui a été entièrement ou partiellement réalisé dans E. coli, Salmonelle typhimurium et levure (Kuo et al, 2018 ). Ces sauvegardes génétiques sont ce que Mampuys et Brom ( 2018 ) qualifient d'« intégration horizontale » de la biotechnologie, à savoir le développement de techniques de plus en plus polyvalentes et moins spécifiques à l'application.

Les sauvegardes génétiques sont conçues comme des « plug-ins », qui peuvent être implémentés dans différents châssis. En réalité cependant, ils sont beaucoup moins universellement applicables que cette vision ne le suggère. Pour commencer, la pratique actuelle des laboratoires développe encore des sauvegardes génétiques dans et pour des organismes spécifiques, avec E. coli et la levure étant les dominantes. L'effort requis pour mettre en œuvre une stratégie existante dans une nouvelle espèce n'est pas négligeable. Par exemple, les outils d'édition du génome pour recoder le génome sont beaucoup moins développés dans S. typhimurium ou d'autres bactéries qu'elles ne le sont E. coli. Deuxièmement, les différents châssis ne sont pas interchangeables en raison des particularités physiologiques de chaque espèce. Par exemple, l'ingénierie requise pour une auxotrophie de phosphite synthétique dépend du système de transport du phosphore spécifique de l'espèce, qui peut consister en différents transporteurs et complexes de transport. De plus, des espèces spécifiques sont plus adaptées à certains scénarios ou environnements : bactéries du sol, microbiote intestinal ou organismes phototrophes. En conséquence, il est raisonnable de s'attendre à ce que les contextes d'application dictent l'utilisation d'un châssis biologique spécifique (de Lorenzo et al, 2021 ).

Il existe un large éventail d'applications potentielles de la biologie synthétique, allant de la médecine à l'industrie en passant par l'agriculture et l'environnement, qui bénéficieraient de garanties génétiques. Néanmoins, la plupart des gains sont attendus dans les applications nouvelles et omniprésentes qui sont actuellement considérées comme trop risquées, telles que les applications médicales à usage humain ou les applications environnementales non confinées pour la bioremédiation (Moe-Behrens et al, 2013 Schmidt & de Lorenzo, 2016 ). De toute évidence, de telles applications varient considérablement dans leurs caractéristiques, de leur site de déploiement et de l'échelle écologique d'intervention à leurs avantages perçus et aux pratiques humaines qu'elles affecteront.

Compte tenu de la diversité des scénarios dans lesquels les garanties génétiques peuvent être applicables, il est frappant de constater qu'elles sont conçues, évaluées et réglementées indépendamment de leur contexte. Qui plus est, il est hautement improbable que les mêmes stratégies ou combinaisons de celles-ci soient tout aussi utiles, pertinentes ou souhaitables dans des contextes aussi extrêmement divers. Après tout, les ceintures de sécurité des voitures sont très différentes des ceintures de sécurité des voitures de course, des avions ou des montagnes russes. L'auxotrophie du phosphite susmentionnée, par exemple, est parfaitement logique en tant que stratégie de confinement biologique pour les applications agricoles, mais peut ne pas être le meilleur choix dans les milieux biomédicaux. Comme nous allons le voir, la contextualisation offre des avantages tangibles pour saisir et répondre aux particularités de chaque contexte et aux besoins et intérêts correspondants des parties prenantes.


Contenu

Téléologie Modifier

Téléologie, du grec τέλος, télos "fin, but" [3] et -λογία, logia, "une branche d'apprentissage", a été inventé par le philosophe Christian von Wolff en 1728. [4] Le concept dérive de la philosophie grecque antique d'Aristote, où la cause finale (le but) d'une chose est sa fonction. [5] Cependant, la biologie d'Aristote n'envisage pas l'évolution par sélection naturelle. [6]

Les expressions utilisées par les biologistes comme « une fonction de . est à . » ou « est conçue pour » sont téléologiques au moins dans le langage. La présence de téléologie réelle ou apparente dans les explications de la sélection naturelle est un aspect controversé de la philosophie de la biologie, notamment pour ses échos de la théologie naturelle. [1] [7]

Théologie naturelle Modifier

Avant Darwin, la théologie naturelle supposait à la fois l'existence de Dieu et utilisait l'apparence de la fonction dans la nature pour argumenter en faveur de l'existence de Dieu. [9] [10] Le curé-naturaliste anglais John Ray a déclaré que son intention était "d'illustrer la gloire de Dieu dans la connaissance des œuvres de la nature ou de la création". [8] La théologie naturelle a présenté des formes de l'argument téléologique ou de l'argument de conception, à savoir que les organes fonctionnaient bien pour leur objectif apparent, ils étaient donc bien conçus, ils devaient donc avoir été conçus par un créateur bienveillant. Par exemple, l'œil avait pour fonction de voir et contenait des caractéristiques telles que l'iris et le cristallin qui aidaient à voir. Par conséquent, selon l'argument, il avait été conçu à cette fin. [9] [10] [11]

Évolution dirigée par un objectif Modifier

Les penseurs religieux et les biologistes ont supposé à maintes reprises que l'évolution était conduite par une sorte de force vitale, une philosophie connue sous le nom de vitalisme, et ont souvent supposé qu'elle avait une sorte de but ou de direction (vers laquelle la force de vie s'efforçait, s'ils croyaient aussi en cela), connu sous le nom d'orthogenèse ou de progrès évolutif. Une telle orientation vers un but implique une force téléologique à long terme, certains partisans de l'orthogenèse la considéraient comme une force spirituelle, tandis que d'autres considéraient qu'elle était purement biologique. Par exemple, l'embryologiste russe Karl Ernst von Baer croyait en une force téléologique dans la nature, [12] [13] tandis que le philosophe spiritualiste français Henri Bergson liait l'orthogénèse au vitalisme, plaidant pour une force créatrice dans l'évolution connue sous le nom de élan vital dans son livre Évolution créative (1907). [14] Le biophysicien français Pierre Lecomte du Noüy et le botaniste américain Edmund Ware Sinnott ont développé des philosophies évolutionnistes vitalistes connues sous le nom de téléfinalisme et télisme respectivement. Leurs vues ont été fortement critiquées comme non scientifiques [15] le paléontologue George Gaylord Simpson a soutenu que Du Noüy et Sinnott promouvaient des versions religieuses de l'évolution. [16] Le paléontologue jésuite Pierre Teilhard de Chardin a soutenu que l'évolution visait un supposé "point Omega" spirituel dans ce qu'il a appelé "l'additivité dirigée". [17] [18] Avec l'émergence de la synthèse évolutive moderne, dans laquelle les mécanismes génétiques de l'évolution ont été découverts, l'hypothèse de l'orthogénèse a été largement abandonnée par les biologistes, [19] [20] en particulier avec l'argument de Ronald Fisher dans son livre de 1930 La théorie génétique de la sélection naturelle. [21]

Sélection naturelle Modifier

La sélection naturelle, introduite en 1859 comme mécanisme central [a] de l'évolution par Charles Darwin, est la survie et la reproduction différentielles des individus en raison des différences de phénotype. [23] Le mécanisme implique directement l'évolution, un changement des traits héréditaires d'une population au fil du temps. [24]

Adaptation Modifier

Un trait qui persiste dans une population est souvent supposé par les biologistes avoir été sélectionné au cours de l'évolution, soulevant la question de savoir comment le trait y parvient. Les biologistes appellent un tel mécanisme la fonction du trait, en utilisant des expressions telles que "Une fonction du stotting par les antilopes est de communiquer aux prédateurs qu'ils ont été détectés", [1] ou "La main du primate est conçue (par la sélection naturelle) pour saisir ." [25]

Une adaptation est une structure observable ou une autre caractéristique d'un organisme (par exemple, une enzyme) générée par la sélection naturelle pour remplir sa fonction actuelle. Un biologiste pourrait proposer l'hypothèse que les plumes sont des adaptations pour le vol des oiseaux. Cela nécessiterait trois choses : que le trait d'avoir des plumes soit héréditaire, que le trait remplisse la fonction de vol et que le trait augmente l'aptitude des organismes qui l'ont. Les plumes remplissent clairement ces trois conditions chez les oiseaux vivants. Cependant, il y a aussi une question historique, à savoir, le trait est-il apparu en même temps que le vol des oiseaux ? Malheureusement pour l'hypothèse, cela ne semble pas être le cas : les dinosaures théropodes avaient des plumes, mais beaucoup d'entre eux ne volaient pas. [26] [27] Les plumes peuvent être décrites comme une exaptation, ayant été cooptées pour le vol mais ayant évolué plus tôt dans un autre but tel que l'isolation. Les biologistes peuvent décrire à la fois la cooptation et l'adaptation antérieure en langage téléologique. [26] [28] [29]

Raisons de l'inconfort Modifier

La téléologie apparente est un problème récurrent en biologie évolutive, [30] à la grande consternation de certains auteurs, [31] et en tant que style explicatif, elle reste controversée. [31] Il existe diverses raisons d'inconfort avec la téléologie chez les biologistes. [1] [32]

Premièrement, le concept d'adaptation est lui-même controversé, car il peut être considéré comme impliquant, comme l'ont soutenu les biologistes évolutionnistes Stephen J. Gould et Richard Lewontin, que les biologistes sont d'accord avec le docteur Pangloss de Voltaire dans sa satire de 1759. Candide que c'est « le meilleur des mondes possibles », c'est-à-dire que chaque trait est parfaitement adapté à ses fonctions. [33] Cependant, tout ce que la biologie évolutive requiert, c'est l'affirmation plus faible qu'un trait est au moins légèrement meilleur dans un certain contexte qu'un autre, et est donc sélectionné pour. [1]

Deuxièmement, la téléologie est liée à l'idée prédarwinienne de théologie naturelle, selon laquelle le monde naturel témoigne de la conception consciente et des intentions bienfaisantes d'un créateur, comme dans les écrits de John Ray. [1] William Derham a poursuivi la tradition de Ray avec des livres tels que son 1713 Physico-Théologie et son 1714 Astro-Théologie. [34] Ils ont à leur tour influencé William Paley qui a écrit un argument téléologique détaillé pour Dieu en 1802, Théologie naturelle, ou preuves de l'existence et des attributs de la divinité recueillies à partir des apparences de la nature, [35] en commençant par l'analogie de l'horloger. [36] Un tel créationnisme, avec une force vitale vitaliste et une évolution orthogénétique dirigée, a été rejeté par la plupart des biologistes. [1]

Thirdly, attributing purposes to adaptations risks confusion with popular forms of Lamarckism where animals in particular have been supposed to influence their own evolution through their intentions, though Lamarck himself spoke rather of habits of use, and the belief that his thinking was teleological has been challenged. [37] [38] [39]

Fourthly, the teleological explanation of adaptation is uncomfortable because it seems to require backward causation, in which existing traits are explained by future outcomes because it seems to attribute the action of a conscious mind when none is assumed to be present in an organism and because, as a result, adaptation looks impossible to test empirically. [1]

A fifth reason concerns students rather than researchers: Gonzalez Galli argues that since people naturally imagine that evolution has a purpose or direction, then the use of teleological language by scientists may act as an obstacle to students when learning about natural selection. Such language, he argues, should be removed to make teaching more effective. [40]

Removable teleological shorthand Edit

Statements which imply that nature has goals, for example where a species is said to do something "in order to" achieve survival, appear teleological, and therefore invalid to evolutionary biologists. It is however usually possible to rewrite such sentences to avoid the apparent teleology. Some biology courses have incorporated exercises requiring students to rephrase such sentences so that they do not read teleologically. Nevertheless, biologists still frequently write in a way which can be read as implying teleology, even though that is not their intention. [41] John Reiss argues that evolutionary biology can be purged of apparent teleology by rejecting the pre-Darwinian watchmaker analogy for natural selection [41] [42] other arguments against this analogy have also been promoted by writers such as the evolutionary biologist Richard Dawkins. [43]

Some philosophers of biology such as James G. Lennox have argued that Darwin was a teleologist, [44] while others like Michael Ghiselin described this claim as a myth promoted by misinterpretations of his discussions, and emphasized the distinction between using teleological metaphors and actually being teleological. [45] Michael Heads, on the other hand, describes a change in Darwin's thinking about evolution that can be traced from the first volume of À propos de l'origine des espèces to later volumes. For Heads, Darwin was originally a far more teleological thinker, but over time, "learned to avoid teleology." Heads cites a letter Darwin wrote in 1872, in which he downplayed the role of natural selection as a causal force on its own in explaining biological adaptation, and instead gave more weight to "laws of growth," that operate [without the aid of natural selection]. [46]

Andrew Askland, from the Sandra Day O'Connor College of Law claims that unlike transhumanism, an ideology that aims to improve the human condition, which he asserts is "wholly teleological", Darwinian evolution is not teleological. [47]

Various commentators view the teleological phrases used in modern evolutionary biology as a type of shorthand for describing any function which offers an evolutionary advantage through natural selection. For example, the zoologist S. H. P. Madrell wrote that "the proper but cumbersome way of describing change by evolutionary adaptation [may be] substituted by shorter overtly teleological statements" for the sake of saving space, but that this "should not be taken to imply that evolution proceeds by anything other than from mutations arising by chance, with those that impart an advantage being retained by natural selection." [48]

Irreducible teleology Edit

Other philosophers of biology argue instead that biological teleology is irreducible, and cannot be removed by any simple process of rewording. Francisco Ayala specified three separate situations in which teleological explanations are appropriate. First, if the agent consciously anticipates the goal of their own action for example the behavior of picking up a pen can be explained by reference to the agent's desire to write. Ayala extends this type of teleological explanation to non-human animals by noting that A deer running away from a mountain lion. . . has at least the appearance of purposeful behavior." [49] Second, teleological explanations are useful for systems that have a mechanism for self-regulation despite fluctuations in environment for example, the self-regulation of body temperature in animals. Finally, they are appropriate "in reference to structures anatomically and physiologically designed to perform a certain function. " [49]

Ayala, relying on work done by philosopher Ernest Nagel, also rejects the idea that teleological arguments are inadmissible because they cannot be causal. For Nagel, teleological arguments must be consistent because they can always be reformulated as non-teleological arguments. The difference between the two is, for Ayala, merely one of emphasis. Nagel writes that while teleological arguments focus on "the consequences for a given system of a constituent part or process," the equivalent non-teleological arguments focus on ""some of the conditions . under which the system persists in its characteristic organization and activities." [50] However, Francisco Ayala argued that teleological statements are more explanatory and cannot be disposed of. [51] [52] Karen Neander similarly argued that the modern concept of biological 'function' depends on natural selection. So, for example, it is not possible to say that anything that simply winks into existence, without going through a process of selection, actually has functions. We decide whether an appendage has a function by analysing the process of selection that led to it. Therefore, Neander argues, any talk of functions must be posterior to natural selection, function must be defined by reference to the history of a species, and teleology cannot be avoided. [53] The evolutionary biologist Ernst Mayr likewise stated that "adaptedness . est un a posteriori result rather than an a priori goal-seeking." [37]

Angela Breitenbach, looking at the question of teleology in biology from a Kantian perspective, argues that teleology is important as "a heuristic in the search for causal explanations of nature and . an inevitable analogical perspective on living beings." In her view of Kant, teleology implies something that cannot be explained by science, but only understood through analogy. [54]

Colin Pittendrigh coined the similar term 'teleonomy' for apparently goal-directed biological phenomena. For Pittendrigh, the notion of 'adaptation' in biology, however it is defined, necessarily "connote that aura of design, purpose, or end-directedness, which has, since the time of Aristotle, seemed to characterize the living thing" [55] This association with Aristotle, however, is problematic, because it meant that the study of adaptation would inevitably be bound up with teleological explanations. Pittendrigh sought to preserve the aspect of design and purpose in biological systems, while denying that this design can be understood as a causal principle. The confusion, he says, would be removed if we described these systems "by some other term, like 'teleonomic,' in order to emphasize that the recognition and description of end-directedness does not carry a commitment to Aristotelian teleology as an efficient causal principle." [56] Ernst Mayr criticised Pittendrigh's confusion of Aristotle's four causes, arguing that evolution only involved the material and formal but not the efficient cause. [b] Mayr proposed to use the term only for "systems operating on the basis of a program of coded information." [57]

William C. Wimsatt affirmed that the teleologicality of the language of biology and other fields derives from the logical structure of their background theories, and not merely from the use of teleological locutions such as "function" and "in order to". He stated that "To replace talk about function by talk about selection [. ] is not to eliminate teleology but to rephrase it". However, Wimsatt argues that this thought does not mean an appeal to backwards causation, vitalism, entelechy, or anti-reductionist sentiments. [58]

The biologist J. B. S. Haldane observed that "Teleology is like a mistress to a biologist: he cannot live without her but he's unwilling to be seen with her in public." [59] [60]


Basic tenets of anthropology:

  1. Holism: Holism means that a part of something can only truly be understood if examined within relation to the whole of it. For anthropologists, this means that they try to understand humankind through the interrelationships of all aspects of human existence -- for example, human biology has to be examined within the context of human cultures and vice versa. In addition, all of this must be examined within the context of the environment and historical processes. In an effort to be holistic, anthropology is often an interdisciplinary field that crosses over into other fields such as history, geology, and ecology.
  2. Relativism: Relativism means that judgments, truths, or moral values have no absolutes, and can only be understood relative to the situation or individuals involved. For anthropologists, this means that they accept that all cultures are of equal value and must be studied from a neutral point of view. A good anthropologist must disregard their own beliefs, morals, and judgments when examining another culture. They must, instead, examine each culture within the context of its own beliefs.
  3. Universalism: Universalism means that whatever the theoretical principle is, it's equally applicable to all. For anthropologists, universalism means that we believe all humans are equal -- in intelligence, complexity, etc.This is in contrast to ethnocentrism, which is the belief that some peoples are more important or culturally/biologically better than other peoples.
  4. Culture: All humans have culture. Culture is the set of learned behaviors and knowledge that belong to a certain set of people. This is different from genetically hardwired behaviors (such as reflexes) in that they aren't biologically inherited. The most important thing to remember is that culture is learned.

Biology Tutors Cost $35 - 60 per hour on average

What’s a fair price for a private Biology tutor? Biology tutors using Wyzant are professional subject experts who set their own price based on their demand and skill.

Choisissez votre tuteur

Comparez les coûts des tuteurs. Avec une gamme d'options de prix, il y a un tuteur pour chaque budget.

Pas de frais initiaux

Inscrivez-vous, recherchez et envoyez des messages avec des tuteurs experts gratuitement.

Pas de forfaits coûteux

Ne payez que le temps dont vous avez besoin. Que ce soit une leçon ou sept, vous décidez quoi dépenser.

Payez après votre leçon

Obtenez d'abord l'aide dont vous avez besoin. Vous n'êtes facturé qu'une fois votre leçon terminée.

Aimez votre leçon ou c'est gratuit

Rapporté par les principaux organes de presse

Trust an expert answer

Remerciements

We appreciate the dedication of the BMDCS study participants and their families, and the support of Dr. Karen Winer, Scientific Director of this effort. We are also grateful to all the ALSPAC families who took part in this study, the midwives for their help in recruiting them, and the whole ALSPAC team, which includes interviewers, computer and laboratory technicians, clerical workers, research scientists, volunteers, managers, receptionists, and nurses.

Review history

The review history is available as Additional file 3.

Peer review information

Tim Sands was the primary editor of this article and managed its editorial process and peer review in collaboration with the rest of the editorial team.


Conclusion

In summary, we have focused on an essential problem in the field of regulatory variant prioritization and disease-associated gene detection. Considering the importance of cellular chromatin states, we have developed a context-dependent method to quantify the regulatory potential of genetic variants in a particular tissue/cell type. Previous studies suggest that a single tissue/cell type-specific epigenetic mark, such H3K4me3 [18] or H3K27ac [19], could be used to fine-map GWAS loci for particular diseases/traits. Our context-dependent prioritization method uses the integrative effect of multiple chromatin states to identify functional regulatory variants. Building on our previous context-free regulatory variant prediction method, we have demonstrated that context-dependent epigenomic weighting can improve identification of both variant-level and gene-level susceptible loci in GWAS. We will frequently update epigenomes data for more tissues/cell types and integrate cepip into our comprehensive downstream analysis platform KGGSeq in the future [56, 57].


Reporter's comments

It would have been interesting to know whether 'traditional' virulence effectors could be exported through the flagellum export apparatus when the vir plasmid was present but the TTSS on it was knocked out. Such experiments would also raise questions about the signals required for export through the two systems, especially if each system secreted only a discreet set of effectors. The identity of the other Fops remains to be elucidated. Those not involved in flagellum synthesis could be important for bacterial virulence. The identification of YplA as a Fop, and the fact that expression of yplA is within a flagellar transcriptional regulon, raises the fascinating possibility that YplA was once involved in flagellum biosynthesis but has since been co-opted for a role in virulence.


Voir la vidéo: biologie cellulaire et chimie 1ier année snv et les écoles supérieures ENSA,ESSAIA,ENSM.. (Décembre 2021).