Informations

Existe-t-il une définition de la complexité des gènes et des protéines selon leur fonction ?


Désolé pour une telle question, si elle est trop naïve.

Existe-t-il une définition de la complexité des gènes et des protéines en fonction de leur fonction ? Si oui, quelle est la relation entre eux ?


Les protéines et les gènes sont généralement classés en superfamilles et familles en fonction de sa structure interne (principalement son organisation de domaine). Les domaines sont des parties de la protéine avec sa propre structure 3D qui ont généralement leur propre fonction et agissent de manière plus ou moins indépendante.

Cependant, cela ne parle pas beaucoup de leur complexité. La myoglobine et l'hémoglobine, par exemple, sont des protéines très apparentées et sont donc classées dans la même famille. Cependant, l'hémoglobine forme des tétramères, tandis que la myoglobine est une molécule unique. Il n'est pas rare que des protéines très proches puissent différer dans leur association avec d'autres protéines, leur schéma de polymérisation, l'ajout de nouveaux domaines, etc. Des potéines très similaires peuvent avoir des fonctions très différentes, c'est-à-dire catalyser une réaction similaire dans des directions opposées ou dans des voies très différentes, ou agissant dans différentes parties de la cellule ou de l'organisme.

En biologie, il est souhaitable que toute classification soit basée sur des critères évolutifs, car non seulement c'est une manière plus neutre et impartiale de classer les choses biologiques, mais aussi de fournir des informations sur l'origine et la structure de celles-ci. Vous pouvez classer les protéines par leur structure, nombre de motifs, nombre de domaines, nombre de domaines différents, taille, fonction (en fait, il existe une classification très utile et largement utilisée pour les enzymes), etc. et vous pourriez classer les gènes selon son nombre d'exons, la structure de son promoteur/amplificateur, politique ou non, etc. Cependant, cette classification s'avérera généralement inférieure à une classification évolutive.


Évolution de la complexité biologique

Les évolution de la complexité biologique est un résultat important du processus d'évolution. [1] L'évolution a produit des organismes remarquablement complexes - bien que le niveau réel de complexité soit très difficile à définir ou à mesurer avec précision en biologie, avec des propriétés telles que le contenu génétique, le nombre de types cellulaires ou la morphologie, tous proposés comme mesures possibles. [2] [3] [4]

De nombreux biologistes croyaient que l'évolution était progressive (orthogenèse) et avait une direction qui les menait vers les soi-disant « organismes supérieurs », malgré le manque de preuves de ce point de vue. [5] Cette idée de "progression" et d'"organismes supérieurs" dans l'évolution est maintenant considérée comme trompeuse, la sélection naturelle n'ayant aucune direction intrinsèque et les organismes sélectionnés pour une complexité accrue ou réduite en réponse aux conditions environnementales locales. [6] Bien qu'il y ait eu une augmentation du niveau maximum de complexité au cours de l'histoire de la vie, il y a toujours eu une grande majorité d'organismes petits et simples et le niveau de complexité le plus courant semble être resté relativement constant.


Existe-t-il une définition de la complexité des gènes et des protéines selon leur fonction ? - La biologie

Les principaux types et fonctions des protéines sont répertoriés dans le tableau 1.

Tableau 1. Types et fonctions des protéines
Taper Exemples Les fonctions
Enzymes digestives Amylase, lipase, pepsine, trypsine Aide à la digestion des aliments en catabolisant les nutriments en unités monomères
Transport Hémoglobine, albumine Transporter des substances dans le sang ou la lymphe dans tout le corps
De construction Actine, tubuline, kératine Construire différentes structures, comme le cytosquelette
Les hormones Insuline, thyroxine Coordonner l'activité des différents systèmes du corps
La défense Immunoglobulines Protéger le corps des agents pathogènes étrangers
Contractile Actine, myosine Effet contraction musculaire
Espace de rangement Protéines de stockage des légumineuses, blanc d'œuf (albumine) Fournir de la nourriture au début du développement de l'embryon et de la plantule

Les enzymes et les hormones sont deux types particuliers et courants de protéines. Enzymes, qui sont produits par des cellules vivantes, sont des catalyseurs de réactions biochimiques (comme la digestion) et sont généralement des protéines complexes ou conjuguées. Chaque enzyme est spécifique du substrat (un réactif qui se lie à une enzyme) sur lequel elle agit. L'enzyme peut aider dans les réactions de décomposition, de réarrangement ou de synthèse. Les enzymes qui décomposent leurs substrats sont appelées enzymes cataboliques, les enzymes qui construisent des molécules plus complexes à partir de leurs substrats sont appelées enzymes anabolisantes et les enzymes qui affectent la vitesse de réaction sont appelées enzymes catalytiques. Il convient de noter que toutes les enzymes augmentent la vitesse de réaction et, par conséquent, sont considérées comme des catalyseurs organiques. Un exemple d'enzyme est l'amylase salivaire, qui hydrolyse son substrat, l'amylose, un composant de l'amidon.

Les hormones sont des molécules de signalisation chimique, généralement de petites protéines ou des stéroïdes, sécrétées par les cellules endocrines qui agissent pour contrôler ou réguler des processus physiologiques spécifiques, notamment la croissance, le développement, le métabolisme et la reproduction. Par exemple, l'insuline est une hormone protéique qui aide à réguler la glycémie.

Les protéines ont des formes et des poids moléculaires différents, certaines protéines sont de forme globulaire tandis que d'autres sont de nature fibreuse. Par exemple, l'hémoglobine est une protéine globulaire, mais le collagène, présent dans notre peau, est une protéine fibreuse. La forme des protéines est essentielle à sa fonction, et cette forme est maintenue par de nombreux types de liaisons chimiques. Les changements de température, de pH et d'exposition à des produits chimiques peuvent entraîner des changements permanents dans la forme de la protéine, entraînant une perte de fonction, connue sous le nom de dénaturation. Différents arrangements des mêmes 20 types d'acides aminés comprennent toutes les protéines. Deux nouveaux acides aminés rares ont été découverts récemment (sélénocystéine et pirrolysine), et de nouvelles découvertes supplémentaires pourraient être ajoutées à la liste.

En résumé : fonction des protéines

Les protéines sont une classe de macromolécules qui remplissent un large éventail de fonctions pour la cellule. Ils aident au métabolisme en fournissant un soutien structurel et en agissant comme des enzymes, des vecteurs ou des hormones. Les éléments constitutifs des protéines (monomères) sont les acides aminés. Chaque acide aminé a un carbone central qui est lié à un groupe amino, un groupe carboxyle, un atome d'hydrogène et un groupe R ou une chaîne latérale. Il existe 20 acides aminés courants, dont chacun diffère par le groupe R. Chaque acide aminé est lié à ses voisins par une liaison peptidique. Une longue chaîne d'acides aminés est connue sous le nom de polypeptide.

Les protéines sont organisées à quatre niveaux : primaire, secondaire, tertiaire et (facultatif) quaternaire. La structure primaire est la séquence unique d'acides aminés. Le repliement local du polypeptide pour former des structures telles que le ?? hélice et ??-la tôle plissée constitue la structure secondaire. La structure tridimensionnelle globale est la structure tertiaire. Lorsque deux polypeptides ou plus se combinent pour former la structure complète de la protéine, la configuration est connue sous le nom de structure quaternaire d'une protéine. La forme et la fonction des protéines sont étroitement liées. Tout changement de forme causé par des changements de température ou de pH peut entraîner une dénaturation des protéines et une perte de fonction.


Qu'est-ce que la biologie des systèmes

La biologie des systèmes est basée sur la compréhension que le tout est plus grand que la somme des parties.

La biologie des systèmes est à l'origine de certains des développements les plus importants de la science de la santé humaine et de la durabilité environnementale. C'est un holistique approche pour déchiffrer la complexité des systèmes biologiques qui part de la compréhension que les réseaux qui forment l'ensemble des organismes vivants sont plus que la somme de leurs parties. Il est collaboratif, intégrant de nombreuses disciplines scientifiques – biologie, informatique, ingénierie, bioinformatique, physique et autres – pour prédire comment ces systèmes évoluent au fil du temps et dans des conditions variables, et pour développer des solutions aux problèmes de santé et d'environnement les plus urgents au monde.

Cette capacité à concevoir des modèles prédictifs multi-échelles permet à nos scientifiques de découvrir de nouveaux biomarqueurs de la maladie, stratifier patients sur la base de profils génétiques uniques, et cible médicaments et autres traitements. La biologie des systèmes, en fin de compte, crée le potentiel pour des types d'exploration entièrement nouveaux et entraîne une constante innovation dans la technologie et le calcul basés sur la biologie.

Parce que la biologie des systèmes nécessite une attention constante à une expérience sociale très complexe et très humaine, l'ISB favorise le type d'environnement financier, social et psychologique dans lequel les meilleurs scientifiques, technologues, ingénieurs et mathématiciens du monde peuvent collaborer et faire leur meilleur travail.

Dr. Nitin Baliga, ISB SVP et directeur, explique ce qu'est la biologie des systèmes. Regardez sur YouTube.

BIOLOGIE DES SYSTÈMES 101 :

Moteur d'innovation de l'ISB

Un principe fondamental de la biologie des systèmes est que la résolution de problèmes biologiques difficiles nécessite toujours le développement de nouvelles technologies afin d'explorer de nouvelles dimensions de l'espace de données. Les nouveaux types de données nécessitent de nouveaux outils d'analyse. Ce cercle vertueux de la biologie au service de la technologie au service du calcul ne peut exister que dans un environnement interdisciplinaire où biologistes, chimistes, informaticiens, ingénieurs, mathématiciens, physiciens, médecins et autres peuvent se réunir en équipes pour relever de grands défis. C'est l'ISB. Et cela décrit ce que nous appelons le « moteur d'innovation » (représenté ci-dessous) qui pilote notre capacité à développer la propriété intellectuelle, que nous partageons via des plateformes en libre accès ou en créant des entreprises.

Équipes transversales

En décrivant la biologie des systèmes et les caractéristiques distinctives de l'approche de l'ISB, nous soulignons toujours à quel point nos groupes de laboratoire sont intentionnellement et nécessairement interdisciplinaires. L'un de nos laboratoires, par exemple, comprend des biologistes moléculaires, des microbiologistes, des généticiens, des ingénieurs, des océanographes et même un astrophysicien. La complexité de la biologie à l'ère du « big data » nécessite des équipes diverses pour s'attaquer à de telles quantités de données et donner un sens à tout cela. Les nouvelles technologies qui traitent les données plus rapidement et plus efficacement permettent également aux chercheurs de réanalyser les ensembles de données existants, un processus qui révèle souvent des informations non découvertes. Des compétences complémentaires permettent à chacun de nos groupes de chercheurs de mieux comprendre les défis biologiques ou environnementaux sous différents angles et d'arriver plus rapidement à des idées partageables. Nos équipes interdisciplinaires ont contribué à des avancées notables dans tous les domaines, de l'acidification des océans aux maladies neurodégénératives et de la tuberculose aux cancers multiples.

Réseau de réseaux

Avec les réseaux, nous pouvons organiser et intégrer l'information à différents niveaux. Les réseaux sociaux ont transformé les communications au 21e siècle, démocratisant nos plateformes de communication. Chez ISB, nous nous préoccupons également des réseaux. L'un des principes de la biologie des systèmes auquel nous nous référons souvent est le « réseau de réseaux ». Sur le plan biologique, notre corps est constitué de nombreux réseaux intégrés et communiquant à de multiples échelles. De notre génome aux molécules et cellules qui composent les organes de notre corps jusqu'à nous-mêmes dans notre monde : nous sommes fondamentalement un réseau de réseaux. La biologie des systèmes examine ces réseaux à toutes les échelles pour intégrer les comportements à différents niveaux, formuler des hypothèses pour la fonction biologique et fournir des informations spatiales et temporelles sur les changements biologiques dynamiques. Il ne suffit pas de comprendre une seule partie d'un système pour étudier la complexité de la biologie. Par conséquent, le cadre du « réseau de réseaux » fournit un aperçu significatif pour comprendre comment l'approche de la biologie des systèmes est différente, plus intégrée et plus capable d'analyser et de prédire les transitions d'état dans les systèmes biologiques.

Modélisation multi-échelle

Qu'on le reconnaisse explicitement ou non, les phénomènes multi-échelles font partie de notre quotidien. Nous organisons notre temps en jours, mois et années, en raison de la dynamique multi-échelle du système solaire. Notre société est organisée selon une structure hiérarchique, des villes aux États, aux pays et aux continents. Le corps humain est une machine complexe, avec de nombreuses petites pièces qui fonctionnent par elles-mêmes ou avec d'autres pièces pour remplir des fonctions spécifiques. Les organites à l'intérieur de chaque cellule de notre corps interagissent les unes avec les autres pour maintenir une cellule fonctionnelle saine qui se déplace, se différencie et meurt. Ces organites subcellulaires et leurs processus régissent le mécanisme de signalisation de chaque cellule pour interagir avec ses cellules voisines et forment des systèmes multicellulaires appelés tissus (par exemple, tissu épithélial, tissu musculaire). Deux ou plusieurs types de tissus travaillent ensemble pour former un organe qui effectue une tâche spécifique (par exemple, la bouche, l'estomac, le foie). Deux organes ou plus travaillent ensemble pour former des systèmes organiques, tels que le système digestif et le système nerveux, qui effectuent des tâches plus complexes. Tous ces systèmes d'organes interagissent les uns avec les autres pour permettre à un organisme de fonctionner en bonne santé. Les approches traditionnelles de la modélisation des systèmes du monde réel se concentrent sur une seule échelle qui confère une compréhension limitée du système. Le rythme auquel la biotechnologie s'est développée nous a permis de collecter de grands volumes de données capturant le comportement à plusieurs échelles d'un système biologique. Les altérations génétiques et environnementales de l'ADN, les niveaux d'expression des ARN, l'expression des gènes et la synthèse des protéines, tout cela est désormais mesurable en quelques jours à un coût en baisse rapide. Ainsi, c'est vraiment aux scientifiques et aux analystes de données d'utiliser cette variété de types de données et de construire des modèles intégratifs qui permettent une compréhension globale du système à l'étude. Les modèles multi-échelles font exactement cela. En intégrant des modèles à différentes échelles et en permettant la circulation d'informations entre eux, les modèles multi-échelles décrivent un système dans son intégralité, et en tant que tels, sont intrinsèques aux principes de la biologie des systèmes.

Analyse de cellule unique

Il est bien connu qu'il n'y a pas de patient « moyen ». Par conséquent, dans les essais cliniques portant sur de grands groupes de patients, il faut tenir compte des caractéristiques de chaque patient, y compris la propension génétique individuelle de chaque personne à répondre à un médicament d'une manière particulière. L'analyse statistique des moyennes de population supprime de précieuses informations spécifiques aux individus. La prise en compte de l'hétérogénéité de la population due à la variabilité inévitable d'un patient à l'autre est appelée « stratification » et est au cœur de la médecine personnalisée. Une telle stratification permettra une correspondance d'impédance appropriée avec des médicaments appropriés et efficaces. Chaque cellule d'une population cellulaire de cellules apparemment identiques est un individu distinct. Il n'y a pas de cellule « moyenne » même au sein d'une population de cellules du même type cellulaire. Tout comme on peut examiner des patients individuels dans une population et identifier des sous-types de maladies, on peut identifier des sous-types cellulaires «quantifiés» ou «discrets» dans une population cellulaire. Les sous-types quantifiés remplissent différentes fonctions et forment un réseau, un peu comme un réseau social dans les populations humaines. Ainsi, comprendre le fonctionnement d'un organe nécessitera de comprendre l'intégration coordonnée du fonctionnement de tous les types cellulaires quantifiés. En raison de cette hétérogénéité cellulaire, même le médicament sélectif le plus puissant ne tuera qu'une fraction des cellules tumorales, ce qui explique la résistance inexorable aux médicaments dans les tumeurs malignes. Cette nouvelle compréhension de l'hétérogénéité cellulaire appelle à la mesure de tous les profils moléculaires dans les cellules individuelles. Les tissus ne doivent pas être considérés comme une masse amorphe mais analysés comme des populations dynamiques de cellules et à une résolution unicellulaire.

Comprendre la protéomique

Si l'ADN est le modèle de la vie, alors les protéines sont les briques. Les gènes de l'ADN sont traduits en protéines, des chaînes d'acides aminés qui se replient en structures tridimensionnelles. Le type et l'ordre des acides aminés dans une protéine changeront sa forme et détermineront sa fonction spéciale. Les protéines sont les molécules qui font que la vie existe : ce sont les centrales électriques qui transforment les aliments en énergie, les machines qui font bouger les cellules et même les ordinateurs qui lisent l'ADN et fabriquent plus de protéines. L'information pour construire chaque protéine dans un organisme est contenue dans l'ADN, mais toutes les protéines ne sont pas produites à la fois ou en même quantité. Pensez à une cellule dans votre foie et à une cellule dans votre rétine - les deux cellules contiennent un ADN identique, mais des sous-ensembles très différents de protéines sont produits afin de donner à chaque cellule sa fonction spéciale. La protéomique est la discipline qui consiste à identifier et quantifier les protéines présentes dans un organisme. À l'ISB, nous utilisons des instruments scientifiques de pointe et des techniques informatiques de pointe pour détecter des milliers de protéines à la fois, ce qui nous donne une vision systémique de la machinerie moléculaire de la vie.

Soyez à l'avant-garde des percées profondes dans le domaine de la santé humaine. Faites partie de l'ISB et de la révolution que nous sommes fiers d'avoir contribué à provoquer.


Un paysage difficile pour le monde de l'ARN ?

Je suis de retour, et en ce moment je ne peux pas vraiment décider si je dois être mécontent ou triste à propos de Jiménez et al. (2013).

Du côté du squeeing, j'ai des arguments assez convaincants.

  1. C'est un article sur le monde de l'ARN. Je suis un fan sans vergogne partial du monde de l'ARN. (Ce n'est pas que mon opinion compte, vu que c'est la seule hypothèse d'origine de la vie que je savoir quoi que ce soit. C'est comme voter pour le seul parti dont vous avez vu les annonces de campagne.)
  2. Je trouve l'expérience réelle ridiculement cool. C'est un peu comme cette étude de mutation sur la protéine de choc thermique 90 dont j'ai parlé il y a longtemps, sauf que ces gars ont évalué l'aptitude relative de pratiquement toutes les molécules d'ARN possibles de 24 nucléotides. Oui, c'est 4^24 molécules d'ARN différentes, chacune en plusieurs exemplaires. Et ils l'ont fait deux fois, juste pour s'assurer qu'ils ne confondaient pas les hasards statistiques avec les résultats [1].
  3. Il explore le paysage de l'évolution et se penche sur les grandes questions telles que : dans quelle mesure l'évolution est-elle inévitable/reproductible ? Ou, comme dirait Stephen Jay Gould, que se passerait-il si nous repassions la bande de la vie ?

D'un autre côté, les résultats sont un peu sombres. La configuration expérimentale consistait donc à sélectionner parmi cet énorme pool de séquences d'ARN celles qui pourraient se lier au GTP, qui est essentiellement un bloc de construction d'ARN avec un paquet d'énergie attaché. Dans chaque cycle de sélection, les ARN qui pouvaient s'attacher le plus fortement au GTP ont fait le mieux. (Les abondances relatives des différentes séquences ont été mesurées avec le séquençage de nouvelle génération.) La question principale était la forme du paysage de fitness de ces ARN : quelle est la fréquence des séquences fonctionnelles de liaison au GTP, à quel point doivent-elles être similaires pour remplir cette fonction , avec quelle facilité une séquence fonctionnelle pourrait muter en une autre, ce genre de chose.

  1. Il n'y avait que 15 pics de forme physique qui se sont constamment manifestés dans les deux expériences. (Un pic de fitness consiste en un groupe de séquences similaires qui sont meilleures pour la fonction sélectionnée que les « masses » 8221.) Cela ressemble à des ARN de liaison au GTP de cette taille sont assez rares.
  2. Les pics étaient généralement isolés par des vallées profondes, c'est-à-dire que si vous étiez une molécule d'ARN assise sur un pic et que vous vouliez passer à un autre, vous deviez subir de nombreuses mutations délétères pour y arriver. Concrètement, cela signifie que vous n'y arriverez peut-être jamais, car l'évolution ne peut pas planifier à l'avance [2].
  1. Cette étude n'a considéré qu'une seule fonction et qu'un seul environnement. Nous n'avons aucune idée de la façon dont l'aspect du paysage changerait si une expérience prenait en compte qu'une molécule d'ARN primordiale pourrait avoir à faire de nombreux travaux pour "survivre" et qu'elle pourrait "vivre" dans un environnement plein d'autres molécules, ions, changements de température, peu importe. (Ce serait un l'enfer d'une expérimentation. Je pense que je pourrais spontanément exploser en feu d'artifice si quelqu'un le faisait.)
  2. Ce n'est pas comme si c'était vraiment un problème du point de vue de la plausibilité. La terre primitive fait avoir pas mal de temps et potentiellement beaucoup d'ARN entre ses mains. Je ne pense pas que cela aurait eu beaucoup à l'origine plus long molécules d'ARN que celles de cette expérience, pas jusqu'à ce que l'ARN ait compris comment faire plus de lui-même, mais je suis à peu près sûr qu'il en avait plus qu'assez pour explorer l'espace des séquences.

4^24 molécules est d'environ 2,8 x 10^14, ou environ la moitié d'un nanomole (une mole correspond à 6 x 10^23 molécules). Une mole d'ARN simple brin de 24 nt représente environ 8,5 kilos - je pense que vous pouvez en placer un peu plus d'un milliardième sur une planète entière avec de nombreux endroits propices à la synthèse d'ARN. Je ne vois donc pas la nécessité de paniquer quant à la plausibilité de molécules d'ARN prébiotiques aléatoires remplissant des fonctions utiles (en termes d'origine de vie). (Ma première pensée quand j'ai lu cet article était "oh mon dieu, du fourrage au créationnisme", mais à y regarder de plus près, vous devez être assez mathématiquement défié pour le voir comme tel.)

Donc, à la fin, je pense que je vais me contenter de *SQUEEE!* Après tout, c'est une expérience vraiment fascinante qui ne fait pas finir par tuer mon monde d'ARN bien-aimé. Sur la question de rejouer la bande, je ne suis pas engagé de toute façon, mais je suis intrigué par tout ce qui offre un aperçu. Et cet article ne rentre que dans sa portée limitée, il se range du côté de l'évolution étant très dépendant des accidents de l'histoire.

[1] J'ai travaillé un peu avec l'ARN, et je n'ai que de l'admiration pour les gens qui le font tout le temps. La maudite molécule est une douleur totale, inconstante, instable dans le cul. Et littéralement, tout est plein d'enzymes presque impossibles à tuer qui le mangent juste pour se moquer de vos efforts. Ou peut-être que je suis vraiment nul en biologie moléculaire.

[2] Je dois souligner que les mutations délétères ne sont pas toujours des obstacles à l'évolution. Ils peuvent contribuer de manière assez significative à l'adaptation ou même à de toutes nouvelles fonctions. Je me creuse la tête pour des études sur des êtres vivants réels liés à ce problème, mais tout ce que je peux trouver pour le moment, ce sont les incroyables expériences de Richard Lenski et ses collègues avec des organismes numériques, alors Lenski et al. (2003) et secrète et al. (2013) devra faire pour les citations.

AW secrète et al. (2013) Expériences sur le rôle des mutations délétères comme tremplins dans l'évolution adaptative. PNAS 110:E3171-3178

Jiménez JI et al. (2013) Paysage de fitness expérimental complet et réseau évolutif pour les petits ARN. PNAS publication anticipée en ligne, 26/08/2013, doi: 10.1073/pnas.1307604110

Lenski RE et al. (2003) L'origine évolutive des caractéristiques complexes. La nature 423:139-144


Complexité en biologie

Le but ultime de la recherche scientifique est de comprendre le monde naturel. Afin d'atteindre cet objectif, la science occidentale s'est appuyée sur différentes stratégies cognitives, dont la simplification, à la fois en termes d'analyse et d'explication. Comme l'a dit le philosophe britannique de la nature Sir Isaac Newton (1643-1727) : « La vérité se trouve toujours dans la simplicité, et non dans la multiplicité et la confusion des choses. D'une certaine manière, les exemples de simplification incluent l'utilisation de modèles idéalisés, tels qu'une « sphère parfaite roulant sur un plan lisse dans le vide » menant des expériences dans un environnement strictement contrôlé tel que le laboratoire analysant des systèmes complexes en les réduisant à leurs parties individuelles et généralement en utilisant un concept linéaire et déterministe du fonctionnement du monde, y compris la vie.

Le philosophe et mathématicien français René Descartes (1596-1650) a été le premier à introduire le réductionnisme dans la pensée et la philosophie occidentales. Selon lui, le monde peut être considéré comme un mécanisme d'horlogerie pour le comprendre, il suffit d'étudier les pièces puis de réassembler chaque composant pour recréer le tout. Le travail de Descartes a été développé par Newton (1643-1727) et a finalement abouti à la Principia Mathematica en 1687 - l'un des livres scientifiques les plus influents jamais écrits - dans lequel Newton a encore avancé l'idée d'un « univers mécanique ».

Depuis l'époque de Newton, la mécanique classique est considérée comme le fondement de la recherche scientifique. Les scientifiques, y compris les biologistes, ont adopté l'approche newtonienne à la fois au niveau ontologique - en termes de conception du monde et des choses qui le composent - et au niveau épistémologique - en termes d'approche pour comprendre ces choses. L'épistémologie newtonienne, en effet, affirme que la connaissance scientifique doit fournir une représentation objective du monde extérieur. La complexité apparente du monde peut être résolue par l'analyse et la réduction des phénomènes à leurs composants les plus simples. « Une fois que vous aurez fait cela, [l'évolution des phénomènes] s'avérera parfaitement régulière, réversible et prévisible, tandis que les connaissances que vous aurez acquises ne seront que le reflet de cet ordre préexistant » (Heylighen et al, 2007 ).

Depuis que Newton a formulé les premières lois de la gravité, le modèle conceptuel du monde physique avait réussi à décrire la forme, les mouvements et les actions des objets qu'il contenait. Mais lorsque les physiciens ont commencé à explorer en particulier les domaines atomique et subatomique au début du XXe siècle, leurs observations sont devenues partiellement dénuées de sens. Les nouvelles découvertes ont nécessité un changement de paradigme et un nouveau cadre intellectuel pour comprendre les événements au niveau subatomique, ce qui a finalement abouti à la physique quantique.

Depuis l'époque de Newton, la mécanique classique est considérée comme le fondement de la recherche scientifique

Comme de nombreux biologistes moléculaires des années 1950 venaient de la physique, il n'est pas surprenant qu'ils aient étendu son approche classique à l'étude des organismes vivants. La biologie moléculaire, à quelques exceptions près ( Westerhoff & Palsson, 2004 ), a largement adopté une vision réductionniste pour expliquer les systèmes biologiques en fonction des propriétés physiques et chimiques de leurs composants individuels. Comme l'a dit Francis Crick (1916-2004), « Le but ultime du mouvement moderne en biologie est d'expliquer toute la biologie en termes de physique et de chimie » ( Crick, 1966 ). En temps voulu, le réductionnisme s'est avéré être une méthodologie analytique extrêmement puissante et il a permis aux scientifiques d'analyser de nombreux processus moléculaires et cellulaires de base.

Des systèmes complexes existent à différents niveaux d'organisation qui vont du domaine subatomique aux organismes individuels aux populations entières et au-delà

Néanmoins, les biologistes pourraient atteindre les limites de cette approche. Malgré tous leurs efforts, les scientifiques sont loin de gagner la guerre contre le cancer, en grande partie en raison de la nature complexe de la maladie et de l'organisme humain. Le cerveau humain est un système complexe et non linéaire qui défie toutes les tentatives réductionnistes et déterministes pour le comprendre ( Singer, 2007 ). Au niveau macro, les écosystèmes et les sociétés humaines présentent le même défi. Ce qu'il faut, c'est une nouvelle approche pour étudier ces systèmes. La théorie de la complexité peut fournir de nouveaux outils conceptuels qui remettront inévitablement en question de nombreuses hypothèses de la science newtonienne.

Des systèmes complexes existent à différents niveaux d'organisation qui vont du domaine subatomique aux organismes individuels aux populations entières et au-delà. Ils comprennent, par exemple, des molécules, des cellules, des organismes, des écosystèmes et des sociétés humaines. Malgré leurs différences, ils partagent tous des caractéristiques communes, telles que des propriétés émergentes. De plus, le caractère aléatoire et l'ordre sont tous deux pertinents pour le comportement du système global. Ils ne sont en effet caractérisés ni par un déterminisme complet, comme les phénomènes étudiés par la mécanique newtonienne, ni par un hasard total, comme les sujets de la mécanique statistique (Heylighen et al, 2007 ). Des systèmes complexes existent au bord du chaos. Ils peuvent montrer un comportement régulier et prévisible, mais ils peuvent subir des changements massifs et stochastiques soudains en réponse à ce qui semble être des modifications mineures. La métaphore de "l'effet papillon" - selon laquelle un seul papillon battant des ailes peut provoquer une tempête - décrit, par exemple, la dépendance d'un système complexe à ses conditions initiales.

Il est donc important d'analyser comment l'application de la théorie de la complexité peut affecter l'étude des systèmes biologiques, dans le domaine de la biologie moléculaire également. Cette discussion porte principalement sur les implications que ces notions ont pour le réductionnisme et le déterminisme. Le réductionnisme en particulier peut être distingué en trois types : le réductionnisme ontologique, qui suppose que tout ce qui existe dans la nature est constitué d'un petit ensemble d'éléments primitifs qui se comportent de manière régulière et prévisible ; le réductionnisme épistémologique, qui soutient que les concepts, lois et théories fondamentaux d'un niveau d'organisation donné peut être dérivé de concepts, de lois et de théories appartenant à un niveau inférieur et du réductionnisme méthodologique, qui prétend que des phénomènes ou des systèmes complexes peuvent et doivent être compris au moyen de l'analyse de leurs parties individuelles.

De plus en plus de scientifiques soutiennent que l'approche réductionniste ne peut plus faire face à la fois à l'énorme quantité d'informations provenant des sciences et technologies dites « omiques » – génomique, protéomique, métabolomique, etc. ils révèlent. L'hypothèse selon laquelle les systèmes biologiques complexes peuvent être complètement expliqués par le modèle d'horlogerie de Descartes a été remise en question à plusieurs reprises. Comme l'a commenté le biologiste belge Marc Van Regenmortel, s'éloigner « du point de vue et de l'ensemble d'outils réductionnistes est une priorité élevée pour la recherche biologique et biomédicale » ( Van Regenmortel, 2004 ).

Premièrement, l'approche réductionniste n'est pas en mesure d'analyser et de rendre compte correctement des propriétés émergentes qui caractérisent les systèmes complexes. Le philosophe grec Aristote (384-322 av. J.-C.) avait déjà décrit l'émergence dans son traité Métaphysique comme, "Le tout est plus que la somme de ses parties." Ainsi, l'ensemble du système ne peut être ni réduit ni déduit des qualités de ses parties individuelles, un point de vue maintenant soutenu dans une variété de domaines scientifiques allant de la physique à la sociologie.

Les organismes biologiques présentent des propriétés émergentes qui résultent d'interactions à la fois entre leurs composants et avec des facteurs externes. Par exemple, les propriétés d'une protéine ne sont pas équivalentes à la somme des propriétés de chaque acide aminé. Les protéines sont capables de catalyser spécifiquement une réaction chimique, de reconnaître un antigène ou de se déplacer le long d'un autre polymère protéique non seulement parce que leurs acides aminés sont disposés dans un ordre spécifique, mais aussi parce que leur structure et leur fonction tridimensionnelles sont en outre déterminées par des facteurs externes.

La notion d'émergence est également associée à l'idée que le monde naturel est constitué de niveaux d'organisation hiérarchiques qui vont des particules subatomiques aux molécules, aux écosystèmes et au-delà ( De Haan, 2006 ). Chaque niveau est à la fois caractérisé et régi par des lois émergentes qui n'apparaissent pas aux niveaux inférieurs de l'organisation. Cela implique que, pour expliquer les caractéristiques et le comportement d'un système dans son ensemble, nous avons besoin d'une théorie qui opère au niveau hiérarchique correspondant. Par exemple, les phénomènes émergents qui se produisent au niveau de l'organisme ne peuvent pas être entièrement expliqués par des théories qui décrivent des événements au niveau des cellules ou des macromolécules. However, there are also various general features and characteristics—described in this article—that permeate all levels of organization and that allow the study of biological systems in the framework of complexity science.

…the reductionist approach is not able to analyse and properly account for the emergent properties that characterize complex systems

This hierarchical organization creates ‘downward causation’ ( De Haan, 2006 ). While the behaviour of the whole is, to some degree, constrained by the properties of its components—‘upward causation’—the behaviours of its components are also constrained to a certain extent by the properties of the system. The behaviour of a cell, for example, is controlled both by the properties of its macromolecules and by the properties of the organ of which it is a part. The whole is not only more than the sum of its parts, but also less than the sum of its parts because some properties of the parts can be inhibited by the organization of the whole. From an epistemological point of view, this means that it is not enough to analyse each individual part (reductionism), nor is it enough to analyse the system as a whole (holism). A new model of scientific investigation to understand complex systems would require shifting the perspective from the whole to the parts and back again ( Morin, 1990 ).

Second, reductionism favours the removal of an object of study from its normal context. Experimental results obtained under given particular conditions or from a particular model—such as a mouse, in vitro cell cultures or computer models—are often extrapolated to more complex situations and higher organisms such as humans. But this extrapolation is at best debatable and at worst misleading or even hazardous. The failure of many promising drug candidates in clinical research shows that it is not always possible to transfer results from mice or even primates to humans ( Horrobin, 2003 ).

More generally, the strategy of putting the object of study in an artificial, controlled and simplified experimental situation, even if it is done for heuristic purposes, is not neutral and has its price—it severs the essential link between the object and the natural context to which it belongs. Phenomena and properties that occur only in the living environment become obscured and skew the results. Field observations of chimpanzees, for example, have shown that these animals have certain complex behaviours that cannot be observed in an artificial setting but only in their natural environment ( Goodall, 1986 ).

Third, reductionism is also closely associated with determinism—the concept that every phenomenon in nature is completely determined by pre-existing causes, occurs because of necessity, and that each particular cause produces a unique effect and vice versa. This, naturally, also sustains the idea of predictability. “When you are able to predict the development of a system from some predefined condition, then you have established a deterministic relation between the elements which constitute the system” ( Emmeche et al, 1997 ). Nonetheless, complex biological systems cannot be fully understood on a purely deterministic basis. In fact, they often show nonlinear behaviour ( De Haan, 2006 ).

As pointed out above, the individual components in complex systems interact in manifold ways, including highly dynamic regulatory and feedback mechanisms (Van Regenmortel, 2004). Within this framework, a single cause can produce multiple and unpredictable effects and even small fluctuations can have unexpected consequences. Linear casual explanations—that conceive reality as a linear succession of elementary events from cause to effect—are therefore possibly unable to describe how complex systems behave ( Kellenberger, 2004 ).

Nevertheless, many molecular biologists still favour simple models with explanations based on a few individual factors. For example, knockout experiments—which are widely used to determine the functional role of a gene—overemphasize the role of a single gene and are of limited use for understanding complex genetic networks. As a matter of fact, many knockout experiments have no or unexpected effects because any given gene product is only a part of a complex network.

In addition, other phenomena can cause these unforeseen findings such as gene redundancy—the presence of duplicate genes in the genome—and gene pleiotropy, which can lead to several phenotypes based on the same genotype ( Morange, 2001 ). Biology, when based on reductionism and determinism, seems to lack a systemic perspective that could analyse the interaction of the many factors that influence the behaviour of a system ( Van Regenmortel, 2004 ).

Fourth, to better understand complex biological systems and their adaptive behaviour, we need to consider the phenomenon of self-organization, which incorporates many of the ideas mentioned above. Self-organizing systems spontaneously arrange their components and their interactions into adaptive structures with emergent properties. Such structures are able to create new and modify existing strategies to adapt to changing environmental conditions ( Coffey, 1998 ). Complex biological systems, in fact, exist at the ‘edge of chaos’ where, according to Kauffman (1993) , they are able to achieve maximum fitness. Self-organization seems to take place at different levels of biological organization: as a general principle in the organization of the cell itself ( Misteli, 2001 ) in the response of bacterial colonies to chemotactic substrates and in the brain, which reorganizes itself to learn from experience ( Coffey, 1998 ).

An epistemological rethink is needed to instigate a paradigm shift from the Newtonian model that has dominated science, to an appraisal of complexity that includes both holism and reductionism…

As mentioned before, adaptation is strictly associated with self-organization. While the latter is an integral feature of the system itself, the former shifts the perspective to the relationship between the system and the environment. Whatever the pressure from the external environment, complex systems—through dynamic variations in the degree of interactions between the individual components that form the networks—can adjust and reorganize themselves in a new equilibrium in response to external events. Of course, failures can and do occur, nevertheless, adaptation seems to be the rule rather than the exception ( Heylighen et al, 2007 ).

While arguing about the Darwinian metaphor of the organism adapting to its environment, the American evolutionary biologist Richard Lewontin showed how this idea is based on a dichotomy between inside and outside, which disregards the role of the organism in reconstructing its environment ( Lewontin, 2000 ). In fact, organisms neither evolve in isolation nor simply adapt to ‘external’ factors. On the contrary, they react to and modify their environment according to their own needs. Both organism and environment therefore undergo a continuous process of mutual interaction, which Lewontin termed co-adaptation. A biological system is constrained by its environment, but it also changes its environment. This idea might be applied by analogy, although with different implications, to different levels of organization including, for example, the molecular and the cellular levels ( Galtier & Dutheil, 2007 ).

In this framework, it seems that biology, and somehow science as a whole, needs to reconsider the notion of ‘natural laws’. Recent developments in evolutionary biology suggest replacing the idea of a deterministic (prescriptive) law by a non-prescriptive law that just provides a number of constraints. More than actually determining the development of organisms or other complex systems, such laws—if so intended—rather delimit the framework in which they occur. In other words, the ‘law as a constraint’ establishes the ‘rules of the game’. It defines a restricted field of possibilities, within which complex systems develop, but without imposing a unique way of undergoing this process. Other matters should be considered, such as the role of contingencies and of chance, and the way in which the ‘players’ use these and deal with the existing rules ( Ceruti, 1986 ). It seems that a renewed and more fascinating vision of nature emerges with much more room for variability.

…the reintroduction of the observer has fostered a renewed idea of knowledge

Of course, many biologists are well aware of the complexity of living systems, but they do not extend this realization to a reappraisal of how to perform science. “When one searches for the ‘laws of complexity’, one still attaches complexity as a kind of wagon behind the truth locomotive, that which produces laws. A hybrid was formed between the principles of traditional science and the advances towards its hereafter. Actually, one avoids the fundamental problem of complexity, which is epistemological, cognitive, paradigmatic. To some extent, one recognizes complexity, but by decomplexifying it. In this way, the breach is opened, then one tries to clog it: the paradigm of classical science remains, only fissured.” ( Morin, 2007 ).

…key notions such as emergence, nonlinearity and self-organization already offer conceptual tools that can contribute to transform and improve science

An epistemological rethink is needed to instigate a paradigm shift from the Newtonian model that has dominated science, to an appraisal of complexity that includes both holism and reductionism, and which relaxes determinism in favour of recognizing unpredictability as intrinsic to complex systems. Moreover, this ‘complex paradigm’ requires us to develop ‘knowledge of knowledge’ and understand its possibilities and limits. Science should not only continue to develop more refined means to analyse its subjects, but also investigate its own approach to generating knowledge ( Morin, 1990 ).

This raises the important question of the role of the observer. Classical science has developed by eliminating subjectivity in order to create objective knowledge, but complexity theory has reintroduced the observer as an intrinsic component in the process of gathering knowledge and performing research. The famous uncertainty principle formulated by the German physicist Werner Heisenberg (1901–1976) shows how the ‘observer modifies the observation’. This applies not only to quantum physics, but, by extension, can also have practical relevance in the fields of biochemical and biological experimentation. As the Swiss physicist and biologist Eduard Kellenberger (1920–2004) wrote, “for the sub-microscopic world of atoms and molecules, it means that the physical properties of a system—for example, its energy—are uncertain in particular, these properties depend on the type of observation that is performed on that system, defined by the experimental set-up. In the fashionable field of nano-biotechnology, which examines biological structures at the level of atoms, these relationships are directly relevant. Even at a larger scale, the interactions between an experimental set-up and biological matter give rise to modifications too for example, bleaching during fluorescence microscopy or the electron-beam-induced alteration—such as burning or carbonization—of a specimen.” ( Kellenberger, 2004 ).

Broadly speaking, the reintroduction of the observer has fostered a renewed idea of knowledge. Instead of searching for one fundamental point of observation, scientists need to explore different points of view—which can be vicarious in building a cognitive universe—when describing or explaining a given phenomenon ( Ceruti, 1986 ). Different perspectives can, in fact, complement each other and allow scientists to acquire a more complete knowledge of the phenomenon.

Any constraint can also be an opportunity that, if exploited, allows new possibilities to arise

One of the most fundamental relationships within this framework is between the system and its environment—the distinction between a point of view that is within the system and one that is external to the system. These two points of view are irreducible and complementary. They emerge from and are defined with respect to one another. The French scientist Henri Atlan, one of the first who tried to define complexity in biology, investigated biological organization from the perspective of information theory. He suggested that, in a hierarchical system, the external observer can be the higher organizational level ( Atlan, 1979 ). In explaining the role of ‘noise’, he stressed how its ‘meaning’ depends on the observational perspectives: leading respectively to a decrease or to an increase in information content “whether one is interested in the information transmitted in the channel or in the information transmitted to the observer from a whole system in which the channel is part of a redundant communication network” ( Atlan, 1974 ). For example, a cell would try to suppress noise in its communication pathways as it might lead to unexpected and possibly deleterious effects, but an observer at a higher level—an organ or the organism—would regard noise as a factor that increases variability and therefore overall fitness—provided that the cell is not killed.

A new theoretical framework should therefore be able to integrate different levels of order while allowing them to maintain their distinctiveness. Such a framework should be grounded on one of the key concepts of complex thinking, unitas multiplex, according to which it is possible to preserve a distinction among what is connected and to connect without reduction ( Morin, 1990 ).

This framework needs to extend to the organization of knowledge. Each domain of knowledge should not be viewed as a closed system—a view that fragments knowledge. Each area should instead participate in a broader project for the development of a science capable of preserving diversity—each field has its own specific features—but also ensuring the integration of the different parts into one common framework.

Biology can therefore be regarded as a discipline with subdisciplines that pertain to different levels of organization ( Emmeche et al, 1997 ). It needs, of course, its own vocabulary and system of conceptualization, and remains partly independent of chemistry and physics. Yet, at the same time, it needs to ‘communicate’ with them, as well as with other disciplines devoted to the study of systems at higher levels, such as ecology.

At present, the multifaceted ‘complexity paradigm’ consists more of a unified way of thinking rather than a finished body of knowledge. Possible applications to the different domains of knowledge need to be further investigated. Nonetheless, key notions such as emergence, nonlinearity and self-organization already offer conceptual tools that can contribute to transform and improve science. Novel approaches and specialized fields of knowledge are already emerging. For example, network biology ( Alm & Arkin, 2003 Barabasi & Oltvai, 2004 ) takes advantage of the fact that diverse complex networks, including biological networks, seem to share similar organizational patterns. Some scientists have also stressed how such a change can have beneficial consequences not only at the theoretical level, but also in biomedical research such as drug discovery and vaccine development (Van Regenmortel, 2004).

Furthermore, the epistemological side of complexity offers scientists a chance to reflect on the characteristics and limits of the scientific approach to generating knowledge. Following the notion of the observer, scientists should be more aware that scientific knowledge is always developed within the boundary of given constraints. Yet, this should not be a limiting factor. Any constraint can also be an opportunity that, if exploited, allows new possibilities to arise. Scientists could therefore acquire more complete knowledge of a given phenomenon if they explore it from different cognitive ‘horizons’, such as points of observation at different hierarchical levels, which by virtue of their vicariousness, cooperate and complement each other.


Complexes, Signaling Networks, and Functional modules

The current revolution in our concepts and practices in analyzing complex biological functions has different conceptual and experimental roots. Nonliving, organized physical systems can exhibit emergent properties that cannot be attributed to single molecules but rather to intermolecular interactions within the system 27 . Work in bacteria has led to the realization that several systems, such as the motility apparatus, are modular in organization as their properties cannot be attributed to single components and are characterized by robustness, that is, an ability to resist changes in their function 28 . This concept has taken root in cancer biology and efforts are in progress to describe the reorganization of functional networks in cancer cells using mRNA, miRNA, and protein expression data converted to useful models and interpreted in terms of networks 29, 30 .

Recent advances in cancer cell genomic and proteomic methods greatly facilitate genomic and epigenomic analysis of functional cancer cell networks in terms of interacting molecules in complexes and in their constituent modules, especially in terms of the modular organization of oncogene expression and its correlation with specific cellular behavior 31, 32 . Genetic and epigenetic networks are altered in cancer cells and they are therefore likely to reflect permanent changes in the types, numbers, and interactions of complexes and modules at several levels, including the cell cycle 33 signal transduction pathways, such as the Ras-MAPK pathway 34 and chromatin remodeling in regulation of gene expression 35-37 , giving rise to autonomous function of several modules associated with cell growth and invasion. While there is ample evidence in the molecular cancer literature that cancer cells have different modular and network design 38 of cellular behavior reflecting differences in the types and composition of complexes (Fig. 2), it is unknown (a) how this organization arises, (b) how the levels of identified gene protein products change in their respective complexes, and (c) factors which determine the nodes that (proteins or other molecules) are important in communications between altered complexes and modules. An important aspect of biological networks is that they can have several different forms depending on whether they consist of some (tens) or many (hundreds to thousands) of genes, proteins, or other biological entities studied en masse. For example, simple phages contain only a few genes and proteins whereas simple or higher eukaryotes such as yeast, or mice and humans contain hundreds to thousands. It was therefore necessary for high-throughput data collection and analysis techniques to be developed, starting from automated DNA sequencers all the way to network-generating software (Table 1). Data generation using cDNA or oligonucleotide microarrays 39, 40 permits the simultaneous examination of all genes expressed at any given time under various conditions. For example, genome-wide expression analysis has been applied to the study of the yeast Saccharomyces cerevisiae cell cycle module 41 . Protein–protein interaction maps have been generated for yeast using the two hybrid method 42 covering about 80% of all proteins and revealing important nodes, which when functionally inactivated by mutagenesis were lethal. Central to analysis of functional complexes, networks, and modules is the concept of “system,” which is any collection of molecules under study and is distinct from module or network. System molecules can participate in different networks or modules. In analogy to the definition of a module, there are at least two informal system definitions, the first due to experimentalists 43 and the second to theoreticians 44, 45 (reviewed in 46 ). From a practical point of view although it is important not only to define the components of any biological system and model their interactions but also (a) to test if perturbing identified nodes affect the function under study and (b) if the links and function of any known biomolecules such as oncogene or tumor suppressor proteins can be reconciled with what is known about them experimentally.

Subject Technique
1. Genome-wide gene expression Microarrays: oligonucleotide/cDNA chips microRNA expression
Genome-wide promoter analysis (Regulomics)
2. Expressed proteins (various conditions) Antibody/cell extract chips (Proteomics/Reverse proteomics)
3. Network
Direct protein–protein interactions Yeast 2-hybrid
In vivo/in vitro pull down
Protein–DNA interactions DNA footprinting
In vivo cross-linking/immunoprecipitation (ChIP)
Gel shifts
Genetic protein–protein interactions
Gene regulatory interactions Genome-wide promoter analysis (Regulomics)
4. Comparative genomics/proteomics Various computational models and techniques
Protein functional genomics DNA motif-finding programs
Reconstruction with Boolean or Bayesian network methods
  • Some techniques utilized in global identification of all molecules involved in a system under study and the construction of interacting networks that can explain and predict phenotypes.

One approach to test if theoretically determined protein interconnections in their networks and experimental data agree has been applied by Spirin and Mirny 22 . Their theoretical method is similar to that used by ecologists to quantitate ecological complexity in terms of food web network interactions (see Box 2) 20 . These investigators sought to establish functionally important nodes within and between complexes using yeast protein–protein interaction data on two functional modules 47 , the cell cycle and the MAP kinase module. They identified sets of yeast proteins (clusters) that have more connections among themselves than with other proteins in the protein–protein interaction networks under study. They defined the density of a cluster as Q = 2m/(m[n – 1]), where m is the number of proteins in the cluster and m the number of interactions. Significantly, genes and proteins (identified as clusters) found in the same complex or module had a consistent biological function, suggesting that biologically meaningful networks and modules arise from distinct protein complexes identified by genomics and proteomics approaches. This further suggests that analyzing the role of oncogene/tumor suppressor proteins in their complexes and the networks and modules they form in tumor cells may also be fruitful in identifying how oncoprotein-driven complexes and modules are organized in tumor cell models in terms of clusters or nodes. The theoretical results were further confirmed by tandem affinity purification and mass spectrometry even though data exist for only 29 experimental yeast complexes. An alternative approach, called multiple parallel signature sequencing (MPSS) 48 was applied by Hood's group in detecting definitive gene differences in early (androgen-sensitive) and late (castrate-resistant) prostate cancer 38 and used to map the networks that are different between the two states. Among significant genes/pathways regulated differentially, they identified the insulin signaling and the NFκ-B pathways interconnected to the c-Jun and IL-1 receptor pathways as well as at least 112 transcription factors that were differentially regulated in late versus early stage disease. Nevertheless, it remains to be seen how known oncogenes and tumor suppressor genes (and their protein products) fit into the identified disease and stage-specific patterns of signaling networks and whether they are clustered nodes with significant regulatory roles. Recently, Riera-Fernandez et al. 46, 49 developed Markov–Shannon entropy models to evaluate connectivity (Lij) quality for network nodes in complex networks with an accuracy of nearly 76%. Notably, the models were predictive for different types of networks suggesting that it may be applied to mixed networks of biological interest.

According to network theory, a system can be described mathematically by its main components (nodes or hubs) and their connections (links). In addition to the above properties, many networks follow a power law distribution and are scale free, their clusters or nodes being quantified by the equations Q = 2m/(m[m – 1]) and P(k)

k −γ , which describe how networks are interconnected 9, 50 (for definitions and a description, see Box 2). Thus, it would be informative to construct MYC or other oncogenic protein networks in model systems using data from real tumors and determine if the value of γ, and by extension of P(k) for oncogenic proteins such as MYC correlates with their experimentally uncovered influence on multiple cell pathways affecting proliferation and growth. Under this hypothesis, the lower the value of γ (within experimentally defined limits), the more important the protein would be predicted in networking and pathway control. In the case of protein complexes, the nodes are individual proteins and the links are their interactions, whereas for networks and their modules the nodes can be either individual proteins or groups of highly connected proteins both within and between modules that can determine functional outcome (see Fig. 4 for a schematic outline depicting experimentally determined connections of the Myc, p53, and TGFβ pathways). These pathways do not necessarily reveal the networks involved as they include only a limited number of nodes. In this respect, it is reasonable to suggest that oncogene products that are known to participate into different complexes and to affect several intracellular networks, such as MYC, RAS, or tumor suppressor proteins such as p53 and pRB, may qualify as important nodes with critical intracomplex and internodule links. Other potentially important nodes, making critical links may be inhibitors of the cell cycle, such as p21, which are also frequently mutated and inactivated in many cancers and for which we have some experimental information on how their levels may change the function of known cyclin-dependent kinase oncogenes (see last section for discussion). Moreover, other protein partners in the complexes and modules of these oncogene/tumor suppressor proteins also can be important in network dynamics and function however, their role remains to be discovered. An example is the adaptor protein p40 in the ING1/Sin3A chromatin remodeling complex that controls growth and possibly metastasis in human cancer cell lines 37 . Until now the complexes formed by these proteins, their composition and function in network and module formation during tumorigenesis remain incompletely characterized.

The cell cycle, cell migration, cell division, and other cellular phenotypes can be considered as supramodules, consisting of smaller modules (e.g., chromosome segregation, kinase network signaling, DNA replication, etc.), whose fate is under the control of several networks consisting of protein and other complexes that are in turn regulated by small molecules (e.g., nutrient availability) and influenced by the relative levels and malfunction of activated oncogenes or tumor suppressor genes and proteins (see Figs. 3 and 4). Complexes and the networks they participate in are controlled by genetic, epigenetic, and spatiotemporal signals and are characterized by robustness 51 , a property that was also recognized in bacterial systems 52, 28 . In tumor cells, robustness is manifested in their redundant heterogeneity, the presence of diverse mutations in individual genes, in the ability to withstand and evade attack by the immune system and resist chemotherapeutic attack, and is among the most significant in contributing to growth and survival 53 . Another property of complexes is that they can share components, which can be members of different clusters. This property is reflected in the functional heterogeneity exhibited by oncogene proteins, such as MYC or RAS, to induce growth arrest in some cells and transformation in others. This property probably reflects their participation in several different complexes and is manifested in their ability to regulate many growth, survival, and invasion networks. Several transcription factor/cofactor complexes, which also include chromatin modification activities, share common adaptor proteins that act as scaffold or complex adaptor proteins 37 . Several oncogene and tumor suppressor gene products such as MYC, MDM2, and pRB can participate in interactions with multiple partners and are members of different complexes and presumably can affect different modules, also in response to cell cycle stage, DNA damage, and other signals. Cyclin-dependent kinase (Cdk) inhibitors (CdkI) such as p27 also modify the functions of the cyclin/CDK complexes depending on their levels. Intriguingly, at low levels they seem to activate kinase activity whereas at higher levels they inhibit it 26, 54 . The levels of CDKI proteins can change due to mutations or to functional inactivation by overexpressed oncogenes.


Protein classification based on shape

On the basis of their shape, proteins may be divided into two classes: fibrous and globular.

Protéines fibreuses

They have primarily mechanical and structural functions, providing support to the cells as well as the whole organism.
These proteins are insoluble in water as they contain, both internally and on their surface, many hydrophobic amino acids. The presence on their surface of hydrophobic amino acids facilitates their packaging into very complex supramolecular structures.
In this regard, it should be noted that their polypeptide chains form long filaments or sheets, where in most cases only one type of secondary structure, that repeats itself, is found.
In vertebrates, these proteins provide external protection, support and shape in fact, thanks to their structural properties, they ensure flexibility and/or strength.
Some fibrous proteins, such as α-keratins, are only partially hydrolyzed in the intestine.
Here are some examples.

  • Fibroin
    It is produced by spiders and insects. An example is that produced by the silkworm, Bombyx mori.
  • Collagène
    The term “collagen” indicates not a single protein but a family of structurally related proteins (at least 29 different types), which constitute the main protein component of connective tissue, and more generally, the extracellular scaffolding of multicellular organisms. In vertebrates, they represent about 25-30% of all proteins.
    They are found in different tissues and organs, such as tendons and the organic matrix of bone, where they are present in very high percentages, but also in cartilage and in the cornea of the eye.
    In the different tissues, they form different structures, each capable of satisfying a particular need. For example, in the cornea, the molecules are arranged in an almost crystalline array, so that they are virtually transparent, while in the skin they form fibers not very intertwined and directed in all directions, which ensure the tensile strength of the skin itself.
    Note: the different types of collagen have low nutritional value as deficient in several amino acids (in fact, they contain no tryptophan and low amount of the other essential amino acids).
    The gelatin used in food preparation is a derivative of collagen.
  • α-Keratins
    They constitute almost the entire dry weight of nails, claws, beak, hooves, horns, hair, wool, and a large part of the outer layer of the skin.
    The different stiffness and flexibility of these structures is a consequence of the number of disulfide bonds that contribute, together with other binding forces, to stabilize the protein structure. And this is the reason why wool keratins, which have a low number of disulfide bonds, are flexible, soft and extensible, unlike claw and beak keratins that are rich in disulfide bonds.
  • Élastine
    This protein provides elasticity to the skin and blood vessels, a consequence of its random coiled structure, that differs from the structures of the α-keratins and collagens.

Globular proteins

Most of the proteins belong to this class.
They have a compact and more or less spherical structure, more complex than fibrous proteins. In this regard, motifs, domains, tertiary and quaternary structures are found, in addition to the secondary structures.
They are generally soluble in water but can also be found inserted into biological membranes (transmembrane proteins), thus in a hydrophobic environment.

Haemoglobin

Unlike fibrous proteins, that have structural and mechanical functions, they act as:

  • enzymes
  • hormones
  • membrane transporters and receptors
  • transporters of triglycerides, fatty acids and oxygen in the blood
  • immunoglobulins or antibodies
  • grain and legume storage proteins.

Examples of globular proteins are myoglobin, hemoglobin, and cytochrome c.
At the intestinal level, most of the globular proteins of animal origin are hydrolyzed almost entirely to amino acids.


Aperçu de l'expression des protéines

Les protéines sont synthétisées et régulées en fonction des besoins fonctionnels de la cellule. Les plans des protéines sont stockés dans l'ADN et décodés par des processus transcriptionnels hautement régulés pour produire de l'ARN messager (ARNm). Le message codé par un ARNm est ensuite traduit en une protéine. La transcription est le transfert d'informations de l'ADN à l'ARNm, et la traduction est la synthèse d'une protéine basée sur une séquence spécifiée par l'ARNm.

Schéma simple de transcription et de traduction. Ceci décrit le flux général d'informations de la séquence de paires de bases d'ADN (gène) à la séquence polypeptidique d'acides aminés (protéine).

Chez les procaryotes, le processus de transcription et de traduction se produit simultanément. La traduction de l'ARNm commence avant même qu'un transcrit d'ARNm mature ne soit entièrement synthétisé. Cette transcription et traduction simultanées d'un gène est appelée transcription et traduction couplées. Chez les eucaryotes, les processus sont spatialement séparés et se produisent séquentiellement, la transcription se produisant dans le noyau et la traduction, ou synthèse protéique, se produisant dans le cytoplasme.

Comparaison de la transcription et de la traduction chez les procaryotes par rapport aux eucaryotes.

Ce manuel de 118 pages fournit des informations complètes sur l'expression des protéines et vous aidera à choisir le bon système d'expression et les bonnes technologies de purification pour votre application et vos besoins spécifiques. Obtenez des trucs et astuces lorsque vous démarrez une expérience et trouvez des réponses aux problèmes quotidiens liés à l'expression des protéines.

La transcription se déroule en trois étapes chez les procaryotes et les eucaryotes : initiation, élongation et terminaison. La transcription commence lorsque l'ADN double brin est déroulé pour permettre la liaison de l'ARN polymérase. Une fois la transcription initiée, l'ARN polymérase est libérée de l'ADN. La transcription est régulée à différents niveaux par des activateurs et des répresseurs ainsi que par la structure de la chromatine chez les eucaryotes. Chez les procaryotes, aucune modification particulière de l'ARNm n'est requise et la traduction du message commence avant même que la transcription ne soit terminée. Chez les eucaryotes, cependant, l'ARNm est encore traité pour éliminer les introns (épissage), l'ajout d'un capuchon à l'extrémité 5' et plusieurs adénines à l'extrémité 3' de l'ARNm pour générer une queue polyA. L'ARNm modifié est ensuite exporté vers le cytoplasme où il est traduit.

La traduction ou la synthèse des protéines est un processus en plusieurs étapes qui nécessite des macromolécules comme les ribosomes, les ARN de transfert (ARNt), les ARNm et les facteurs protéiques ainsi que de petites molécules comme les acides aminés, l'ATP, le GTP et d'autres cofacteurs. Il existe des facteurs protéiques spécifiques pour chaque étape de la traduction (voir tableau ci-dessous). Le processus global est similaire chez les procaryotes et les eucaryotes, bien que des différences particulières existent.

Au cours de l'initiation, la petite sous-unité du ribosome liée à l'ARN t initiateur scanne l'ARNm en commençant par l'extrémité 5' pour identifier et lier le codon d'initiation (AUG). La grande sous-unité du ribosome rejoint la petite sous-unité ribosomique pour générer le complexe d'initiation au niveau du codon d'initiation. Des facteurs protéiques ainsi que des séquences dans l'ARNm sont impliqués dans la reconnaissance du codon d'initiation et la formation du complexe d'initiation. Au cours de l'élongation, les ARNt se lient à leurs acides aminés désignés (appelés chargement d'ARNt) et les transportent vers le ribosome où ils sont polymérisés pour former un peptide. La séquence d'acides aminés ajoutée au peptide en croissance dépend de la séquence d'ARNm du transcrit. Enfin, le polypeptide naissant est libéré dans l'étape de terminaison lorsque le ribosome atteint le codon de terminaison. À ce stade, le ribosome est libéré de l'ARNm et est prêt à initier un autre cycle de traduction.


When Do Gene Mutations Occur?

Mutations frequently occur just before the process of mitosis when DNA is being replicated in the cell nucleus. During mitosis or meiosis, mishaps can occur when chromosomes are not lined up correctly or fail to separate properly. Chromosomal mutations in the germ cells can be inherited and passed along to the next generation.

Some gene mutations can interfere with the rate of normal cell growth and increase cancer risk. Mutations in non-reproductive cells can trigger benign growths or cancerous tumors such as melanoma in skin cells. Defective genes on chromosomes are passed on, as well as too many or too few chromosomes per cell when these mutations happen in germline cells.

Gene mutation examples include severe genetic disorders, cell overgrowth, tumor formation and heightened risk of breast cancer. Cells have a finely tuned mechanism for correcting mutations at checkpoints during cell division, which detects most mutations. Once DNA proofreading is completed, the cell proceeds to the next stage of the cell cycle.


12918_2009_432_MOESM1_ESM.PDF

Additional file 1:Figure S1: LCR distributions in PPI datasets. PPI datasets overlap between the HC, DIPv, FYI and BioGrid datasets, and the distribution of LCRs among them. (PDF 37 KB)

Figure S2: Mean and standard deviation from UniProt entropy distributions

Additional file 2:. The entropy distributions mean grows asymptotically towards the H maxvalue as the window regions increase and sequences within them approach random states. The entropy distributions standard deviation decreases as longer sequences become more homogeneous. (PDF 59 KB)

Figure S3: Computing random LCR positions

Additional file 3:. Method to compute random LCR positions. The same process is repeated for each LCR in S. cerevisiae: LCRs (shown in red) are extracted from their corresponding protein sequence and re-inserted randomly 1000 times. Each time, the normalised centre position is included into the random distribution. (PDF 68 KB)

12918_2009_432_MOESM4_ESM.PDF

Additional file 4:Figure S4: LCR centre positions distribution. Distributions of LCR centre positions and randomly replaced LCR centre positions. The random distribution extremities show the expected frequency decrease, while the original distribution on top, appears to be enriched with extremity LCRs. (PDF 35 KB)

Table S1: LCR distributions in PPI datasets

Additional file 5:. LCRs are approximately equally distributed across the high-confidence datasets (HC, FYI and DIPv). Enrichment is defined as (Observed - Expected)/Attendu. (PDF 25 KB)


Voir la vidéo: Syö hyvää - Rasvavideo (Décembre 2021).