[ad_1]
ظهور ویروس کرونا راه را برای تلاشهای بیشماری هموار کرد، از اقدامات قهرمانانه فردی تا گامهای علمی جمعی خیرهکننده. شرکت های داروسازی در زمان های بی سابقه ای از فناوری های جدید برای تولید واکسن های موثر استفاده کرده اند. آزمایشات بالینی جدید درک جهان را از ممکن و غیرممکن در مبارزه با Cubid 19 تغییر داده است. موسسه بریتانیایی آلن تورینگ اکنون گزارشی در مورد تأثیر هوش مصنوعی بر این بحران منتشر کرده است که چندان امیدوارکننده نیست.
بر اساس گزارش موسسه تورینگ که سال گذشته منتشر شد، هوش مصنوعی تاثیر کمی بر جهانی شدن داشته است و کارشناسان با مشکلات گسترده ای در ارزیابی داده های سلامت و استفاده از فناوری بدون انحراف مواجه شده اند.این گزارش بر اساس مطالعه موردی بیش از 100 مطالعه است. ابزار هوش مصنوعی برای شناسایی علائم کوبید 19 نقص داشت. بلال متین، پزشک و محقق و سردبیر گزارش تورینگ می گوید:
هدف ما برجسته کردن نقاط روشنی بود که نتایج این فناوری را نشان می داد. متأسفانه ما نتوانستیم این نقاط روشن را پیدا کنیم و در عوض مشکلات زیادی پیدا کردیم.
می توان فهمید که یک ابزار نسبتا جدید در حوزه سلامت مانند هوش مصنوعی به تنهایی نمی تواند راه حلی ارائه دهد. علیرغم امیدهای بسیار قوی، بهبود در سلامت تنها با استفاده از داده های الگوریتمی قابل اثبات است.
بسیاری از مطالعات از نمونه هایی از داده های پزشکی گذشته استفاده می کنند. بر اساس این گزارش ها، الگوریتم ها در انجام وظایف خاص مانند یافتن سرطان پوست یا پیش بینی نتایج بیمار بسیار دقیق هستند. برخی از مطالعات همچنین از محصولات اثبات شده ای استفاده می کنند که پزشکان برای نظارت بر علائم سکته مغزی یا بیماری چشمی استفاده می کنند.
بسیاری از ایده های هوش مصنوعی برای مراقبت های بهداشتی فراتر از شواهد اولیه نیستند. محققان همچنین هشدار می دهند که بسیاری از مطالعات از داده های کافی یا با کیفیت برای آزمایش درست برنامه های هوش مصنوعی استفاده نمی کنند. این امر خطر آسیب ناشی از فناوری های غیرقابل اعتماد را افزایش می دهد. برخی از الگوریتمهای سلامت برای گروههای آماری خاص غیرقابل اعتماد یا انحراف هستند.
فشرده سازی داده ها دستاورد جدیدی برای بهبود خدمات مراقبت های بهداشتی نیست. این روش اپیدمیولوژی در سال 1855 آغاز شد. در آن زمان یک پزشک لندنی به نام جان اسنو نمونه های خاصی از وبا را بر روی نقشه ارائه کرد تا ثابت کند که این بیماری آبکی است. اخیراً، پزشکان، محققان و متخصصان فناوری شروع به علاقه مندی به تکنیک های یادگیری ماشینی در پروژه های صنعتی مانند مرتب سازی تصویر یا ترجمه گفتار به متن کرده اند.
اما وضعیت شرکت های فناوری با بیمارستان ها متفاوت است. شرکت هایی مانند فیس بوک می توانند به میلیاردها پست کاربر برای بهبود الگوریتم های تشخیص تصویر دسترسی داشته باشند. اما دسترسی به دادههای سلامت به دلیل نگرانیهای مربوط به حریم خصوصی و سیستمهای فاسد فناوری اطلاعات دشوار است. همچنین، توسعه الگوریتمی که می تواند وضعیت سلامتی افراد را تعیین کند، خطر فیلتر کردن هرزنامه یا تبلیغات هدفمند را افزایش می دهد. ویسر بریشا، استادیار دانشگاه ایسون میگوید:
ما نمی توانیم وارد حوزه الگوهای توسعه پزشکی ابزارهای هوش مصنوعی شویم که در فضاهای کاربری موثر بوده اند.
بریشا اخیراً مقالهای با همکارانش از دپارتمان پزشکی و مهندسی دانشگاه آریزونا نوشت که نشان میدهد بسیاری از مطالعات سلامت هوش مصنوعی الگوریتمها را دقیقتر از آنچه هستند نشان میدهند. زیرا آنها از الگوریتم های قدرتمند در مجموعه داده های کوچک استفاده می کنند.
این به این دلیل است که دادههای سلامتی مانند پردازش تصویر پزشکی، علائم حیاتی و دادههای دستگاه پوشیدنی با توجه به عوامل دیگری مانند سبک زندگی یا نویز پسزمینه متفاوت است. الگوریتم های یادگیری ماشین که در دنیای فناوری بسیار محبوب شده اند، موفق به یافتن الگوها می شوند. تا بتوانند میانبرهایی برای پاسخ های صحیح پیدا کنند. مجموعه داده های کوچکتر الگوریتم کلاهبرداری را تسهیل می کند و نقاط کوری ایجاد می کند که منجر به نتایج بالینی ضعیف می شود. بریشا می افزاید:
این شرکت را گمراه میکند که باور کند ما در حال توسعه مدلهای با عملکرد بهتر هستیم.
به گفته بریشا، این مشکل ممکن است منجر به الگوی نگران کننده ای در برخی از مطالعات هوش مصنوعی شود. پس از بررسی یک مطالعه که از الگوریتمهایی برای تشخیص علائم آلزایمر یا اختلالات شناختی در گفتار استفاده میکرد، بریشا و همکاران دریافتند که مطالعات بزرگتر نسبت به مطالعات کوچکتر دقت کمتری دارند. مروری بر مطالعات مورد استفاده برای شناسایی اختلالات مغزی بر اساس اسکن های پزشکی، یا مطالعه ای که به دنبال تشخیص اوتیسم با یادگیری ماشینی بود، الگوی مشابهی را نشان داد.
برخی از الگوریتم ها در تحقیقات اولیه به خوبی عمل می کنند. اما با توجه به داده های واقعی بیمار متفاوت عمل می کنند و نمی توان این خطر را نادیده گرفت. طبق یک مطالعه در سال 2019، این سیستم از میلیونها بیمار برای اولویتبندی دسترسی به درمان استفاده میکند و بیماران سفیدپوست را در اولویت بالاتری نسبت به بیماران سیاه پوست قرار میدهد.
ما به مجموعه داده های متعادل و آزمایش های دقیق برای جلوگیری از سیستم های انحرافی نیاز داریم. با این حال، وجود داده های استثنایی در مطالعه هوش مصنوعی سلامت به دلیل نابرابری مداوم طبیعی است. طبق یک مطالعه در سال 2020، محققان دانشگاه استنفورد 71 درصد از داده های مورد استفاده در مطالعه یادگیری عمیق را از کالیفرنیا، ماساچوست یا نیویورک به دست آوردند. 47 کشور دیگر آمار کم یا بدون آمار داشتند. کشورهای کم درآمد به ندرت در تحقیقات هوش مصنوعی شرکت می کنند. طبق مطالعهای که در سال گذشته منتشر شد، از 150 مطالعه در مورد کاربرد یادگیری ماشینی در پیشبینی تشخیص یا دورههای بیماری، اکثر مطالعات از کیفیت روششناختی ضعیفی برخوردار بودند و در معرض خطر بالای انحراف قرار داشتند.
دو محقق سازمان غیرانتفاعی Nightingale Open Sicence را راهاندازی کردند تا برای بهبود کیفیت و دامنه مجموعه دادههای در دسترس محققان تلاش کنند. این شرکت با سیستم های مراقبت های بهداشتی کار می کند تا تصاویر پزشکی و داده های مربوط به مستندات بیمار را جمع آوری کند تا داده ها را تجزیه و تحلیل کند و سپس داده ها را برای تحقیقات غیرانتفاعی در دسترس قرار دهد.
زیاد اوبرمیر، یکی از بنیانگذاران نایتینگل و استادیار دانشگاه کالیفرنیا، برکلی، امیدوار است که با فراهم کردن دسترسی به داده ها و منجر به نتایج بهتر، مشارکت را افزایش دهد، همانطور که گروه های بزرگ و باز از تصاویر می توانند به ترویج یادگیری ماشین کمک کنند. او می گوید:
در قلب مشکل این است که محقق می تواند با داده های بهداشتی هر کاری که می خواهد انجام دهد. زیرا هیچ کس نمی تواند نتایج را بررسی کند.
نایتینگل روی پروژه های دیگری برای بهبود سلامت هوش مصنوعی و بهبود دسترسی به داده ها و کیفیت آنها کار می کند. بنیاد Lacuna از ایجاد مجموعههای یادگیری ماشینی در کشورهای با درآمد متوسط و کم حمایت میکند و بر روی یک سیستم مراقبت بهداشتی کار میکند. پروژه جدید در بیمارستان دانشگاه بیرمنگام در بریتانیا که توسط سرویس بهداشت عمومی (NHS) و MIT پشتیبانی می شود، با هدف توسعه استانداردهایی برای ارزیابی سیستم های هوش مصنوعی بر اساس داده های غیر استثنایی است.
متین، سردبیر گزارش بریتانیایی در مورد الگوریتمهای الگوریتمهای جهانیسازی، از چنین پروژههای هوش مصنوعی حمایت میکند؛ اما او معتقد است که چشمانداز سلامت هوش مصنوعی به شدت به سیستمهای سلامت وابسته است.
روی ریشه مشکل سرمایه گذاری کنید و منتظر نتیجه باشید.
[ad_2]