[ad_1]
ظهور ویروس کرونا راه را برای تلاشهای بیشماری هموار کرده است، از اعمال قهرمانانه فردی گرفته تا گامهای علمی جمعی شگفتانگیز. شرکت های داروسازی در دوره ای بی سابقه از فناوری های جدید برای تولید واکسن های موثر استفاده کرده اند. کارآزماییهای بالینی جدید، درک ممکن و غیرممکن را در مبارزه با کووید 19 تغییر داده است. اکنون موسسه آلن تورینگ بریتانیا گزارشی از تاثیر هوش مصنوعی بر این بحران منتشر کرده است که چندان امیدوارکننده نیست.
بر اساس گزارش موسسه تورینگ که سال گذشته منتشر شد، هوش مصنوعی تاثیر زیادی بر جهانی شدن نداشته است و کارشناسان در ارزیابی داده های سلامت و استفاده از فناوری بدون انحراف با مشکلات گسترده ای مواجه هستند. این گزارش بر اساس مطالعه موردی بیش از 100 مطالعه است. بر اساس این مطالعه، تقریباً در تمام دستگاه های هوش مصنوعی برای تشخیص علائم کووید ۱۹ نقص وجود داشت. بلال متین، پزشک و محقق و ویراستار گزارش تورینگ می گوید:
هدف ما تأکید بر نقاط درخشانی بود که نتایج این فناوری را مشخص می کند. متأسفانه ما این نقاط روشن را پیدا نکردیم و در عوض مشکلات زیادی پیدا کردیم.
قابل درک است که ابزارهای نسبتاً جدید در مراقبت های بهداشتی، مانند هوش مصنوعی، نمی توانند به تنهایی راه حلی ارائه دهند. علیرغم امیدهای بسیار قوی، بهبود سلامت تنها با داده های الگوریتمی قابل اثبات است.
بسیاری از مطالعات از نمونه هایی از داده های پزشکی قبلی استفاده می کنند. بر اساس این گزارش ها، الگوریتم ها برای انجام وظایف خاص مانند تشخیص سرطان پوست یا پیش بینی نتایج بیمار بسیار دقیق هستند. برخی از مطالعات همچنین از محصولات اثبات شده ای استفاده می کنند که پزشکان برای نظارت بر علائم سکته مغزی یا بیماری چشم استفاده می کنند.
بسیاری از ایده های هوش مصنوعی برای مراقبت های بهداشتی فراتر از شواهد اولیه نیستند. محققان همچنین هشدار می دهند که بسیاری از مطالعات از داده های کافی یا با کیفیت بالا برای آزمایش درست برنامه های هوش مصنوعی استفاده نمی کنند. بنابراین، فناوری غیرقابل اعتماد خطر آسیب را افزایش می دهد. برخی از الگوریتمهای سلامت نیز برای برخی گروههای آماری غیرقابل اعتماد یا منحرفکننده هستند.
فشرده سازی داده ها دستاورد جدیدی برای بهبود مراقبت های بهداشتی نیست. این روش برای اپیدمیولوژی در سال 1855 آغاز شد. در آن زمان یک پزشک لندنی به نام جان اسنو الگوهای خاصی از وبا را روی نقشه نشان داد تا ثابت کند که این بیماری در آب است. اخیراً، پزشکان، محققان و متخصصان فناوری به تکنیکهای یادگیری ماشینی مانند مرتبسازی تصویر یا تبدیل گفتار به متن در پروژههای صنعتی علاقه پیدا کردهاند.
اما وضعیت شرکت های فناوری با وضعیت بیمارستان ها متفاوت است. شرکت هایی مانند فیس بوک می توانند به پست های میلیاردها کاربر برای بهبود الگوریتم های تشخیص تصویر دسترسی داشته باشند. اما دسترسی به داده های سلامت به دلیل نگرانی های مربوط به حریم خصوصی و سیستم های IT معیوب دشوار است. همچنین، توسعه الگوریتمی که میتواند وضعیت سلامتی افراد را تعیین کند، خطر زیادی برای فیلتر کردن هرزنامه یا تبلیغات هدفمند دارد. ویسار بریشا، استادیار دانشگاه ایسونا می گوید:
ما نمیتوانیم وارد حوزه الگوهای توسعه پزشکی دستگاههای هوش مصنوعی شویم که در فضاهای کاربری مؤثر هستند.
بریشا اخیراً مقالهای را با همکارانش در دپارتمان پزشکی و مهندسی در دانشگاه آریزونا نوشت که نشان میدهد بسیاری از الگوریتمهای مطالعه سلامت هوش مصنوعی دقیقتر از آنها نشان میدهند. زیرا از الگوریتم های قوی روی مجموعه داده های کوچک استفاده می کنند.
این به این دلیل است که دادههای سلامت متناسب با سایر عوامل مانند پردازش تصویر پزشکی، علائم حیاتی و شیوه زندگی دادههای دستگاه پوشیدنی یا نویز پسزمینه متفاوت است. الگوریتم های یادگیری ماشینی که در دنیای فناوری بسیار محبوب شده اند، موفق به یافتن الگوها می شوند. تا بتوانند میانبرهایی برای پاسخ های صحیح پیدا کنند. الگوریتم های داده کوچکتر تقلب را آسان تر می کند و نقاط کوری ایجاد می کند که منجر به نتایج بالینی ضعیف می شود. بریشا می افزاید:
این امر جامعه را فریب می دهد تا تصور کند که ما در حال توسعه مدل های عملکرد بهتر هستیم.
به گفته بریشا، این مشکل می تواند یک الگوی نگران کننده در برخی از تحقیقات هوش مصنوعی باشد. پس از بررسی تحقیقات با استفاده از الگوریتمهایی برای تشخیص علائم آلزایمر یا اختلالات شناختی در گفتار، بریشا و همکاران دریافتند که مطالعات بزرگتر از دقت کمتری نسبت به مطالعات کوچکتر دارند. الگوی مشابهی در بررسی تحقیقات مورد استفاده برای تشخیص اختلالات مغزی بر اساس اسکنهای پزشکی یا در تحقیقاتی که تلاش میکنند اوتیسم را از طریق یادگیری ماشین تشخیص دهند، یافت میشود.
برخی از الگوریتم ها در بررسی اولیه عملکرد خوبی دارند. اما آنها بر روی داده های واقعی بیمار متفاوت عمل می کنند و این خطر را نمی توان نادیده گرفت. طبق یک مطالعه در سال 2019، این سیستم از میلیونها بیمار برای اولویتبندی دسترسی به درمان استفاده کرد و به بیماران سفیدپوست اولویت بیشتری نسبت به بیماران سیاه پوست داد.
ما به یک مجموعه داده متعادل و آزمایش دقیق نیاز داریم تا از سیستم های مخرب جلوگیری کنیم. با این حال، وجود داده های تحریف شده در تحقیقات هوش مصنوعی سلامت به دلیل نابرابری های مداوم رایج است. طبق یک مطالعه در سال 2020، محققان دانشگاه استنفورد 71 درصد از داده های مورد استفاده در تحقیقات عمیق را از کالیفرنیا، ماساچوست یا نیویورک به دست آوردند. 47 ایالت دیگر آماری کمتر یا بدون آمار دارند. کشورهای کم درآمد به ندرت در مطالعات هوش مصنوعی شرکت می کنند. طبق مطالعه ای که سال گذشته منتشر شد، از 150 مطالعه در مورد استفاده از یادگیری ماشینی برای تخمین مدت زمان تشخیص یا بیماری، کیفیت سیستماتیک اکثر مطالعات ضعیف بود و خطر انحراف بالایی وجود داشت.
این دو محقق موسسه غیرانتفاعی Nightingale Open Science را راه اندازی کردند تا روی بهبود کیفیت و مقیاس مجموعه داده های موجود برای محققان کار کنند. این شرکت با سیستم های مراقبت های بهداشتی کار می کند تا داده های مربوط به تصاویر پزشکی و سوابق بیمار را برای تجزیه و تحلیل داده ها جمع آوری کند و سپس داده ها را برای تحقیقات غیرانتفاعی در دسترس قرار دهد.
زیاد اوبرمیر، یکی از بنیانگذاران نایتینگل و استادیار دانشگاه کالیفرنیا، برکلی، امیدوار است با فراهم کردن دسترسی به داده ها، مشارکت را افزایش دهد و به نتایج بهتری دست یابد، همانطور که مجموعه های بزرگ و باز تصویر می توانند به پیشرفت یادگیری ماشین کمک کنند. او می گوید:
در قلب مشکل این است که محقق می تواند با داده های بهداشتی هر کاری که می خواهد انجام دهد. زیرا هیچ کس نمی تواند نتایج را بررسی کند.
Nightingale AI روی پروژههای دیگری برای بهبود سلامت و افزایش دسترسی و کیفیت دادهها کار میکند. صندوق لاکونا از ایجاد مجموعههای یادگیری ماشینی در کشورهای با درآمد متوسط و کم حمایت میکند و روی یک سیستم مراقبتهای بهداشتی کار میکند. پروژه جدید در بیمارستان دانشگاه بیرمنگام در بریتانیا، با همکاری سرویس بهداشت عمومی (NHS) و MIT، به دنبال توسعه استانداردهایی برای ارزیابی سیستم های هوش مصنوعی بر اساس داده های غیر متناقض است.
متین، سردبیر گزارش بریتانیایی الگوریتم جهانی شدن، از طرفداران چنین پروژه های هوش مصنوعی است. اما او معتقد است که چشم انداز مراقبت های بهداشتی هوش مصنوعی به شدت به سیستم های بهداشتی بستگی دارد. او می گوید:
باید روی ریشه مشکل سرمایه گذاری کرد و منتظر نتیجه بود.
[ad_2]