نظریه فرگشت (تکامل) داروین یکی از جنجالی‌ترین نظریات علمی است. یکی از دلایل جنجالی بودن این نظریه ناهمخوانی آن با داستان خلقت در برخی ادیان است، هرچند موارد مشابهی مانند سخنان گالیله و نیوتن در باب جهان-مرکزی نبودن زمین یا گرانش (با وجود آنکه با آموزه ای کتاب مقدس در تضاد است) امروزه کاملا پذیرفته شده هستند. اما چه چیزی باعث شده هنوز نظریه داروین مورد حمله قرار بگیرد؟ یکی از مهمترین دلایل پیچیدگی این نظریه و ارتباط آن با شاخه های دیگر دانش است که فهم درست از آن ها به چند دهه اخیر بر می‌گردد. در این جا سعی می کنیم نشان دهیم که چگونه می توان عجیب بودن فرگشت را درک کرد. باید توجه کرد که نظریه فرگشت (تکامل) در مورد پیچیدگی، تغییرات ژنتیکی و تولید نسل نوین با خواص متفاوت حرف می‌زند و از پیدایش اولین موجود زنده و منشا‌ء حیات سخنی به میان نمی‌آورد، گرچه برای آن هم نظریات و تئوری‌های متفاوتی در میان دانشمندان وجود دارد.

1876-Haeckels_chart_of_human_evolution

یکی از بزرگترین مشکلاتی که در فهم نظریه فرگشت وجود داشته، خلق پیچیدگی‌های زیاد، طی فرآیندی به نام “انتخاب طبیعی” است. در مرکز یکی از مهمترین استدلالات علیه پیچیدگی خود به خودی، قضیه میمون‌های تایپیست وجود دارد که بیان می‌کند «اگر تعداد بسیار زیادی میمون پشت دستگاه تایپ قرار دهیم حتی در مدت زمان بسیار طولانی هم به زحمت بتوانند چند صفحه از آثار شکسپیر را خلق کنند.» 

در مورد بدفهمی های پیرامون داروینیسم توضیحات زیادی داده شده که یکی از آن‌ها توضیحات ریچارد داوکینز (زیست‌شناس بریتانیایی) است. او در کتاب “ساعت ساز نابینا” در مورد چگونگی فرآیند انتخاب طبیعی با کمک “جهش‌های تصادفی ژنتیکی” توضیح می‌دهد. او برای نشان دادن این واقعیت برنامه‌ای به نام “weasel program“که یک شبیه ساز تکاملی است را معرفی می‌کند. در این برنامه با استفاده از اصول فرگشت و معرفی یک تابع برازندگی (fitness function که امتیازهای بهتری به فرزندانی از هر نسل می‌دهد که شباهت بیشتری به کلمات کتاب شکسپیر دارند) توانست در حدود ۴۰ نسل اولین جمله کتاب را تولید کند. به این ترتیب او ثابت کرد که در نسل‌های بعد میتواند جملاتی دیگر یا حتی کتابی دیگر را از برنامه کامپیوتری‌اش نتیجه بگیرد. الگوریتم‌های ژنتیکیکه بر اساس فرگشت طراحی شده‌اند امروزه در علوم مختلف بسیار پرکاربرد هستند. در نتیجه می‌توان گفت که فرگشت در مورد کلیه موجودات هستی لااقل به لحاظ تئوری کاملاً امکان‌پذیر است.

البته این موضوع برای کسانی که با الگوریتم ژنتیک آشنایی دارند، چندان نامفهوم نیست. به صورت ساده در این الگوریتم ابتدا چند فرد (به عنوان جمعیت اولیه) به صورت کاملا تصادفی تولید می شوند. انتخاب طبیعی در این الگوریتم به صورت یک تابع به نام “تابع برازندگی” تعریف می شود که امتیاز های بیشتری به افرادی می‌دهد که با شرایط محیطی سازگارترند (سازگاری می‌تواند به هر شکلی تعریف شود، قوی‌ترین، باهوش‌ترین، چابک‌ترین یا ترکیبی از چندین عامل) در این فرآیند تعدادی از افراد که سازگاری کمتری با محیط دارند به شکل طبیعی حذف می‌شوند و در ادامه افراد باقی مانده از طریق عملیاتی به نام cross-over که ما به ازای طبیعی آن “تولید مثل جنسی” است، افراد جدیدی به وجود می آورند. این افراد جدید ترکیبی از خصوصیات والدین خود را دارند و ممکن است حتی از لحاظ سازگاری از والدین خود بهتر باشند (در واقع از لحاظ ریاضی ثابت می شود که به طور متوسط این سازگاری در نسل جدید بیشتر می‌شود).

در حین عملیات تولید نسل جدید همواره جهش هایی رخ می دهد که عموما نامطلوبند و باعث حذف فرد می‌شوند، اما گاه پیشرفت‌های زیادی ایجاد می‌کنند. نکته بسیار مهمی که در تمام این فرآیند تکاملی وجود دارد این است که تصادف جزء جدایی ناپذیری از انتخاب، تولید مثل و جهش است که در نبودن آن عملا تنوع و پیچیدگی رخ نخواهد داد.
امروزه استفاده از الگوریتم ژنتیک ( و بسیاری از الگوریتم های فرگشتی دیگر) برای حل مسائل پیچیده مهندسی عادی است. 

باید توجه کنید که الگوریتم ژنتیک تنها یکی از راههایی است که نشان می‌دهد فرآیند تکاملی داورین واقعا پیچیدگی تولید می‌کند. در این الگوریتم فرض های ساده کننده‌ی زیادی وجود دارد ولی حتی با وجود این ساده سازی ها هم می توان شاهد تولید پیچیدگی بود.

برگرفته از سایت گمانه