گزارش مهر از نتیجه علم بدون اخلاق؛

چگونه پیشرفتهای علمی می تواند به نابودی بشریت بینجامد

چگونه پیشرفتهای علمی می تواند به نابودی بشریت بینجامد

دستاوردهای بشر در علم و فناوری به شمشیری دو سویه تبدیل گشته اند که هرچند به بهبود زندگی بشر کمک می کنند اما ممکنست به دشمنان اصلی حیات انسان در کره خاکی تبدیل شوند.



به گزارش بیست و یکم به نقل از مهر، علم و فناوری جامعه انسانی و محیط اطراف آنرا به طرق مختلف تحت تأثیر قرار داده اند. در بعضی جوامع، علم و فناوری به توسعه اقتصادی منجر شده اند و تأثیرات مثبتی در زندگی انسان و محیط اش داشته اند. با این وجود چالش های جدی نیز به وجود آورده اند که تأثیراتی منفی یا ناخواسته ای نیز در بر داشته است.
مقام معظم رهبری نیز بتازگی در سخنرانی خود در روز مبعث به جنبه های منفی پیشرفت های علم و فناوری اشاره کردند و اظهار داشتند: "حرص و طمع، پول، تبعیض، استفاده از علم و فناوری برای کشتار انسان ها، غارت کشورهای ضعیف و ابتذال شدید اخلاقی و هرج و مرج جنسی، شاخص ها و پایه های اصلی تمدن غربی است که در حقیقت شکل مدرن شده همان جاهلیت قبل از اسلام است."
در این نوشتار به بهانه فرمایشات اخیر رهبر انقلاب به جنبه های منفی استفاده از علم و فناوری و هشدارهای مربوط به آن پرداخته شده است.
تاکنون نظریه هایی نیز در تأیید این امر ارائه شده و فیلسوفان و پژوهشگران مختلف درباره خطرات دستاوردهای نوین بشر هشدار داده اند.
۳۰۸۰ کلاهک هسته ای در جهان
یکی از دستاوردهای مخرب پیشرفت های علم و فناوری توسعه اسلحه های کشتار جمعی است. اسلحه کشتار جمعی ممکنست هسته ای، رادیولوژیکی، شیمیایی، بیولوژیکی یا هر سلاح دیگری باشد که قادر به از بین بردن انسان ها و ایجاد صدمات زیادی به گروهی از افراد است. همین طور چنین سلاح هایی به سازه های ساخت انسان (مانند ساختمان ها)، سازه های طبیعی (مثلاً کوه ها) و در کل به موجودات کره زمین لطمه می رساند.
در توضیح سلاح های کشتار جمعی می توان آنها را به این صورت تعریف کرد: جنگ افزار رادیولوژیکی هر شکلی از اسلحه بشمار می رود که شامل مسمومیت عمدی تشعشع یا آلودگی یک منطقه به منابع رادیولوژیکی را به وجود بیاورد. کشورهای مختلفی نسبت به برنامه تسلیحات رادیولوژیکی تمایل دارند، اما فقط برخی از آنها ساخت چنین جنگ افزاری را دنبال می کنند.
سلاح شیمیایی (CW) یک جنگ افزار تخصصی است که از مواد شیمیایی برای کشتن یا لطمه به انسان ایجاد می شود. بگفته سازمان منع سلاح های شیمیایی (OPCW)، «اصطلاح سلاح شیمیایی ممکنست به هر ماده شیمیایی سمی یا پیش ساز آنکه می تواند موجب مرگ، جراحت، ناتوانی موقت یا تحریک حسی بوسیله عمل شیمیایی شود، باشد. »
سلاح یا عامل بیولوژیکی در کل یک باکتری، ویروس، تک یاخته، انگل، قارچ، ماده شیمیایی یا سم است که می تواند بطور هدفمند بعنوان یک سلاح در بیوتروریسم استفاده گردد. علاوه بر این پاتوژن های زنده یا درحال تکثیر، سموم و بیوتوکسین ها نیز جزو عوامل بیولوژیکی به حساب می آیند. تا حالا بیش از ۱۲۰۰ نوع عامل بیولوژیکی با قابلیت تبدیل به اسلحه توصیف و مطالعه شده اند.
عامل های بیولوژیکی به طرق مختلف روی سلامت انسان تأثیر منفی ایجاد می کنند. این تأثیرات شامل واکنش های حساسیتی معتدل تا شرایط پزشکی جدی همچون جراحات، معلولیت مادام العمر و حتی مرگ را در پی دارند.
اما در این میان تسلیحات هسته ای پرخطرتر هستند برای اینکه قدرت تخریب بسیار بیشتری دارند. بطور دقیق تر اسلحه هسته ای یک دستگاه انفجاری است که قدرت ویرانگر همجوشی هسته ای را دارد. تسلیحات هسته ای نیز بمب اتمی، بمب هسته ای و کلاهک هسته ای هستند.
در حال حاضر طبق اطلاعات وب سایت انجمن کنترل تسلیحات(Arms Control Association)که در ژانویه ۲۰۲۲ میلادی آپدیت شده، تخمین زده می شود در جهان حدود ۱۳۰۸۰ کلاهک هسته ای وجود دارد.
هرچند تعداد این کلاهک ها در روسیه و آمریکا نسبت به زمان جنگ سرد کاهش یافته، اما باید اشاره نمود طی ۳۰ تا ۴۰ سال اخیر تعداد کشورهای بیشتری به این نوع تسلیحات دست یافته اند. هم اکنون روسیه بیشترین تعداد کلاهک هسته ای (۶۲۵۷ عدد) را در اختیار دارد. بعد از روسیه، آمریکا با ۵۵۵۰ کلاهک، چین (۳۵۰)، فرانسه (۲۹۰)، انگلیس (۲۲۵)، پاکستان (۱۶۵)، هند (۱۵۶)، رژیم صهیونیستی (۹۰) و کره شمالی (حدود ۴۰ تا ۵۰ عدد) بیشترین تعداد کلاهک های هسته ای در جهان را در اختیار دارند.
نانو ماشین هایی با قابلیت از بین بردن انسان در جهان
نیک بوستروم فیلسوف، متعقد است که هوش مصنوعی در آینده به انقراض انسان منجر می شود. وی در کتاب پرفروش خود به نام ابر هوش: مسیرها، خطرها و استراتژی ها تصویری تیره و تار از آینده ای رسم می کند که در آن پژوهشگران یک ماشین با قابلیت ارتقای دائمی می سازند.
این ماشین به تدریج می آموزد تا از تراکنش های آنلاین درآمدزایی کند و کالا و سرویس در دنیای واقعی بخرد. از طرف دیگر این ماشین با بهره گیری از دی ان ای که سفارش داده، نانوسیستم های ساده ای می سازد که به سیستم های پیچیده تر تبدیل می شوند و در نتیجه قدرت بیشتری برای تغییر جهان اطراف خود می یابند.
بوسترم دراین باره می نویسد: حالا تصور کنید هوش مصنوعی گرفتار این شک شود که انسان در برنامه هایش تداخل به وجود می آورد. ممکنست اسلحه های کوچکی بسازد و آنها را بطور مخفیانه در جهان توزیع کند. ممکنست کارخانه های نانوی کوچکی در سراسر جهان و بطور همزمان در یک بازه زمانی از پیش تعیین شده، یک گاز تخریب اعصاب تولید کنند یا ربات هایی توسعه دهند که مانند پشه ها هدف خودرا دنبال می کنند.

بوستروم و عده ای از فلاسفه معتقدند چنین سناریوهایی فراتر از داستان های علمی تخیلی هستند. آنها درباره پیشرفت های فناورانه ای که خطرات وجود به همراه دارد و ممکنست به از میان رفتن بشریت یا تمدن به شکل شناخته شده آن منجر شود و همین طور راه هایی برای متوقف کردن آنها، مطالعه ای انجام داده اند.
هیو پرایس سرپرست مرکز خطر وجودی دانشگاه کمبریج(CSER) در این زمینه می گوید: تصور کنید آنچه ما انجام می دهیم ایجاد یک تیم علمی برای مقابله با عواملی است که انسان را تهدید می کنند.
مطالعه خطرهای وجود راه مقابله با جنبه های منفی فناوری
مطالعه خطرهای وجودی هنوز حوزه نوپا و کوچکی است که در سال ۲۰۱۸ میلادی تعداد اندکی افراد در ۳ مرکز درباره آن مشغول فعالیت بودند چونکه هنوز هیچکس متقاعد نشده این حوزه جدی است. بیشتر سناریوهای به انتها رسیدن تمدن انسانی از حمله پاتوژن های ساخت انسان، لشکر نانوربات ها یا حتی ایده جهانی شبیه سازی شده، ممکنست بسیار غریب به نظر برسد.
جویس تیت یکی از افرادی که روی چالش های قانونگذاری در علوم در انستیتو ایننوژن واقع در ادینبرا فعالیت می کند، در این زمینه می گوید: اکنون تنها تهدید وجودی واقعی جنگ هسته ای است.
از سوی دیگر استیون پینکر روانشناس دانشگاه هاروارد خطرهای وجودی را یک دسته بندی بی استفاده می داند و هشدار می دهد این موارد ممکنست انسان را از تهدیدهای پیش رو و قابل حل مانند تغییرات آب و هوایی و جنگ هسته ای دور کند. وی در کتابش می نویسد: ایجاد ترس و وحشت درباره فجایع احتمالی از آینده انسانیت محافظت نمی کند و حتی ممکنست آنرا به خطر بیندازد.
بی توجهی به خطرات دستاوردهای علمی
با این وجود خیلی از طرفداران خطرهای وجودی پیش بینی می کنند با سرعت گرفتن پیشرفت های فناورانه و علمی، این حوزه اهمیت بیشتری می یابد. همانطور که بوستروم در تحقیق خود اشاره کرده تا حالا تحقیقات زیادی در خطرات انقراض انسان انجام نشده است.
پرایس نیز در این زمینه می گوید: می توان ادعا کرد در زمینه خطرات وجودی به بحث علم توجهی نشده است انسان همیشه با احتمال انقراض نابهنگام روبرو است. بطورمثال ممکنست سیارکی مشابه آنچه دایناسورها را منقرض کرد، با زمین برخورد کند یا یک فوران آتشفشانی ممکنست آسمان را برای سال ها تیره کند و انسان ها را به کام مرگ بفرستد. از طرف دیگر به زودی تهدیدهایی در رشته های علمی مختلف ظاهر می شود. بوستروم در این زمینه می گوید: در قرن جاری ما با پدیده جدیدی روبرو می شویم، به قدرت های جدیدی دست می یابیم تا جهان جدیدی بسازیم.

خطرات وجودی ریشه در علوم حیاتی دارد که در ظاهر بسیار ساده به نظر می رسند. بعنوان مثال پاتوژن ها نشان داده اند قادر به از میان بردن یک گونه هستند. بعنوان مثال ۴ پاندمی آنفلوانزا در قرن گذشته جهان را در برگرفته است. اکنون نیز ویروس کرونا در سراسر جهان انتشار یافته است. پژوهشگران از اکنون مشغول مهندسی پاتوژن هایی هستند که احتمالاً خطرات بیشتری دارند. تعدادی از کارشناسان نیز در سال ۲۰۱۸ میلادی معتقد بودند ترورهای زیستی تا ۲۰۲۰ سالانه یک میلیون قربانی می گیرند.
ابر هوش تهدیدی اصلی برای انسان
این در حالی است که بوستروم معتقد می باشد ویروس ها تهدید اصلی نیستند. بلکه هوش مصنوعی یک خطر واقعی بشمار می رود.
بسیاری از سناریوها مبتنی بر ماشین هایی هستند که از انسان ها باهوش تر هستند و در حقیقت ابر هوشمند به حساب می آیند. اگر چنین هوش مصنوعی ایجاد شود و خودمختار باشد، احتمالاً خطرناکست.
هر چند تعداد زیادی از کارشناسان هوش مصنوعی درباره خطر هوشمندتر شدن ماشین ها از مبدعانشان نگران نیستند. اما جان تالین یکی از توسعه دهندگان نرم افزار اسکایپ در این زمینه معتقد می باشد هوش مصنوعی در صورتی خطرناکست که محیطی مرگبار برای انسان ها بوجود آورد.
او می گوید: شرایطی را تصور کنید که در آن دمای هوا ۱۰۰ درجه سانتیگراد بالا می رود یا پایین می آید. در این وضعیت انسان ظرف چند دقیقه منقرض می شود.
البته برخی دیگر معتقدند مشکل اصلی آن نیست که هوش مصنوعی فناوری بدی است بلکه تکامل نیافته است. برای اجتناب از چنین روندی پژوهشگران تلاش می کنند ارزش های انسانی را به هوش مصنوعی بیاموزند. اما منتقدان ادعا می کنند چنین تلاش هایی موفقیت آمیز نیستند برای اینکه تهدیدهای آتی قابل پیش بینی نیستند.
اتوماسیون، ربات ها و ماشین یادگیری تهدیدهای تازه برای بشر
هنگامیکه از هوش مصنوعی سخن به میان می آید باید توجه داشت این فناوری تقریباً هر حوزه ای که به آن وارد شده را قدرتمندتر کرده است.
علاوه بر بیم آنکه ربات ها و اتوماسیون انسان ها را بیکار کنند، نیروی های فناوری پیشرفته بلاک چین، داده کلان، مهندسی ژنتیک، مهندسی زیستی و ماشین یادگیری نیز قابلیت این را دارند که به تهدید تبدیل شوند.
از سوی دیگر شبکه های اجتماعی و جمع آوری داده های جمعیت ها نیز با حقوق بشر تناقض دارند.
ماشین ها بطور بیش از پیش ارزشهای انسانی را کم می کنند.
همین فناوری هایی که سبب بیکاری میلیاردها انسان می شود، نظارت و کنترل بر افراد را نیز ساده تر می کند.
همچنین از طرف دیگر وابستگی انسان به این فناوری ها و نسل های بعدی آنها یکی دیگر از تهدیدهای متوجه انسان است.
علاوه بر این موارد نباید بدافزارهایی را فراموش کرد که در سیستم های حیاتی اختلال ایجاد می کنند، غذاهایی که بطور ژنتیکی نیز دستکاری شده اند و انتشار اشعه های رادیواکتیو از دستگاهها نیز دیگر خطرات فناوری نوین برای انسان به شمار می آیند.
شبیه سازی انسان و دستکاری ژنتیکی مواد غذایی
یکی دیگر از خطرات مربوط به پیشرفت های فناوری به شبیه سازی انسان ها مربوط است. خیلی از پژوهشگران معتقدند این فناوری به درمان بیماریهای مختلف و همین طور پیوند اعضا کمک می نماید.
اما نمی توان خطرات آنرا نادیده گرفت. این موارد شامل انواع نقایص در اندام های حیاتی مانند کبد، مغز و قلب است. نتایج دیگر شامل پیری زودرس و مشکلات سیستم ایمنی است. یکی دیگر از مشکلات احتمالی مربوط به سن نسبی کروموزوم های سلول شبیه سازی شده است.
دیگر تهدید بزرگی که از طرف فناوری خطراتی برای بشر دارد، دستکاری های ژنتیکی در گیاهان و تولید غذاهای تراریخته است. بزرگترین تهدید ناشی از غذاهای تراریخته این است که می توانند اثرات مضری بر بدن انسان داشته باشند. اعتقاد بر این است که مصرف این غذاهای دستکاری شده ژنتیکی می تواند موجب ایجاد بیماری هایی شود که در مقابل آنتی بیوتیک ها مصون هستند.

1401/01/01
12:54:21
0.0 / 5
592
تگهای چگونه پیشرفتهای علمی می تواند به نابودی بشریت بینجامد: پژوهش , تحقیقات , تولید , حقوق
این مطلب بیست و یکم را می پسندید؟
(0)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۱ بعلاوه ۴
بیست و یکم