ساخت وبلاگ گیربکس اتوماتیک دیجی بروز کاور موبایل نمونه سوال امتحانی گت موب خرید اینترنتی محل تبلیغات شما
ابهامات

samin

ابهامات در تکنولوژي تشخيص چهره !

ابهامات در تکنولوژي تشخيص چهره !

در حال حاضر ميليونها دوربين مداربسته نظارتي در فضاهاي عمومي در سرتاسر جهان وجود دارد؛ ابزاري که در کمتر از دو دهه توانايي هاي منحصر به فردي به دولت ها و پليس براي نظارت بر رفتار شهروندان داده است. در پشت اين لنزها، دوربين هاي مداربسته به روشي تغيير مي کنند که مردم اغلب به سختي از آنها آگاه هستند و دراين ميان حفظ حريم خصوصي شهروندان موضوعي است که بايد بيشتر به آن پرداخته شود.

در حال حاضر تشخيص چهره داغ ترين موضوع صنعت دوربين هاي مداربسته و سيستم هاي نظارت تصويري به حساب مي آيد. چرا که در تعدادي از شهرهاي جهان، در ايالات متحده آمريکا، چين، آلمان، سنگاپور و ديگر شهر هاي متروپل جهاني اين فناوري به شدت مورد استفاده قرار مي گيرد. پليس در اين کشورها استدلال مي کند که استفاده از چنين سيستم هايي به آنها اين امکان را داده است که اين فناوري را براي شناسايي تروريست هاي بالقوه و ساير مجرمان شناخته شده بکار گيرند. اما اين موضوع همراه با نگراني هاي مختلف نيز هست. گسترده ترين انتظار مردم عادي حفظ حريم خصوصي و ناشناس ماندن در مکان هاي عمومي است – که عملا با چنين اقداماتي از سوي دولت ها با تعرض مستقيم روبرو مي شود. در حال حاضر ابهامات در تکنولوژي تشخيص چهره باعث شده است که بازنگري هاي زيادي در نحوه استفاده از آن صورت گيرد.

نواقص عملکرد دوربين هاي تشخيص چهره

سوال مهم بعدي اين است که اين سيستم هاي تشخيص چهره در حال حاضر تا چه اندازه به درستي کار مي کنند؟ تحقيقات نشان مي دهد که ميزان موفقيت اين دوربين ها در شناسايي چهره ها حتي تا ميزان 2? هم پايين مي آيد. همچنين اين فناوري در شناسايي افراد مختلف و خصوصا زنان پوست تيره بسيار کم دقت است و در نتيجه استفاده از چنين فناوري با اين همه نواقص آشکار، امکان تشديد تنش ها بين اقليت هاي قومي و پليس را افزايش مي دهد. اين موضوع در کشورهايي مانند ايران و ديگر کشورهاي خاورميانه که اقليت هاي قومي و مذهبي زيادي در آنها سکونت دارند بيش از ديگر کشورها مهم جلوه مي کند.

همچنين اين مسئله مي تواند با يک موضوع بحث برانگيز ديگر، يعني به نحوه استفاده پليس از پايگاه داده هاي بسيار بزرگ و متمرکز از چهره هاي مردم عام دامن بزند. به طور معمول اين پايگاه داده هاي بزرگ شامل تصاويري از افراد بازداشت شده است که ممکن است هرگز به جرمي محکوم نشده باشند و بعيد به نظر مي رسد که کسي با جمع آوري اين داده ها رضايت داشته باشد. به همين دلايل استفاده از نرم افزار خودکار تشخيص چهره بسيار بحث برانگيز بوده و تا زماني که اين فناوري به اطمينان بيشتري دست پيدا نکند، بايد در نحوه استفاده از آن تجديد نظر شود.

در همين حال و به دليل موضوعات و نگراني هايي که مطرح شده، در شهر سانفرانسيسکو در ايالات متحده استفاده از تشخيص چهره در سيستم هاي عمومي براي مدتي کوتاه ممنوع شده است. انتظار مي رود ساير شهرهاي جهان نيز از اين روش پيروي کنند تا مقرارت مشخصي در نحوه استفاده از اين تکنولوژي به تصويب پارلمان ها و ديگر نهادهاي قانون گذار برسد. ما هنوز نمي دانيم که اين تکنولوژي در ايران مورد استفاده گسترده قرار گرفته است يا نه ؟ سوال ديگر اين است که آيا برنامه خاصي در ميان سياسيون براي آينده در دستور کار است يا خير؟ به هر ترتيب اين نگراني يک موضوع جهاني است. ابهامات در تکنولوژي تشخيص چهره موضوعي است که در کشور ما نيز بايد از همين امروز به آن توجه ويژه شود.

اين تکنولوژي رضايت مندي شهروندان را کاهش مي دهد

در مورد چگونگي استفاده از فناوري تشخيص چهره در واقع اطلاعات دقيق و خاصي وجود ندارد. اين بدان معني است که به عموم مردم فرصتي داده نمي شود که با ضبط، تجزيه و تحليل و ذخيره تصاوير خود در پايگاه داده موافقت داشته باشند. به همين دليل با محروم کردن شهروندان از رضايت عمومي در زندگي، آنها را از انتخاب و کنترل استفاده از تصاوير خود محروم مي کنيم.

بيشتر بخوانيد: تي وي تي

دلايل نگراني از فناوري تشخيص چهره

1. اشتباهات گسترده در محاسبات

مطالعات متعدد نشان داده است که الگوريتم هاي آموزش داده شده بر روي مجموعه داده هاي اين فناوري با اشتباهات گسترده روبرو است و در نتيجه افراد رنگين پوست، به ويژه زنان رنگين پوست را اشتباه شناسايي مي کند. چنين الگوريتمي به ويژه اگر منجر به دستگيري هاي غيرقانوني شود، يا اگر سازمان هاي دولتي و شرکت هاي خصوصي را به تبعيض عليه زنان و مردم از نژاد اقليت سوق دهد، به شدت نگران کننده خواهد بود.

2. افزايش سوبرداشت هاي مقرضانه

افرادي که از نرم افزار تشخيص چهره استفاده مي کنند به اشتباه اعتقاد دارند که اين فناوري بدون خطا است و اين موضوع مي تواند منجر به تصميمات نادرست در سيستم ها و سازمان هاي نظارتي شود. کاملا واضح است که نتايج توليد شده توسط ماشين ها و فناوري هاي با چنين نواقصي نبايد نحوه رفتار آژانس هاي دولتي يا شرکت هاي خصوصي با افراد را تعيين کند. بر اساس يک اصل کاملا منطقي اپراتورهاي آموزش ديده انساني بايد کنترل معني داري بر اين تکنولوژي داشته باشند و براساس قانون تصميم بگيرند.

3. سو استفاده توسط گروه هاي مخفي دولتي

پايگاه هاي داده اي که حاوي تصاوير چهره ما هستند بايد زنگ هشدار را به صدا درآورند. اين موضوع حاکي از آن است که شرکت هاي خصوصي و آژانس هاي اجراي قانون تصاوير ما را براي ساختن ليست هاي مظنونين احتمالي بدون اطلاع و رضايت ما مي توانند اين اطالعات را به اشتراک بگذارند. اين تهديدي جدي براي حقوق فردي و آزادي هاي مدني ما است. امنيت اين پايگاه هاي داده و آسيب پذيري آنها در برابر عملکرد هکرها نيز باعث نگراني مضاعف خواهد شد. نگراني از فناوري تشخيص چهره در چنين موضوعاتي بيشتر شبيه فيلم ها هيجاني و هاليوودي مي شود اما بايد اين اخطار را به شما بدهيم که در واقعيت اين کار در حال انجام است و نظارت شديدي در آينده بر رفتار شما اعمال خواهد شد.

بيشتر بخوانيد: هايک ويژن نصب دوربين مدار بسته

4. سو استفاده از تکنولوژي تشخيص چهره عليه اقشار ضعيف

براي نظارت بر جرايم احتمالي که در سطح شهرها رخ مي دهد مي توان از فناوري تشخيص چهره استفاده کرد. اما همچنين اين فناوري مي تواند به صورت انتخابي و با نيت هاي ديگر نيز به کار گرفته شود. به عنوان مثال براي شناسايي مهاجران و پناهندگان و يا حتي براي سرکوب کردن جناح هاي سياسي ديگر. همچنين دولت هايي که به نقض آشکارحقوق اقليت ها در کشورشان متهم هستند مي توانند از اين فناوري براي سرکوب بيشتر اين اقليت ها استفاده کنند.

بحث شديداً مورد نياز

با نگراني هاي فراوان در مورد فناوري تشخيص چهره ، ما به شدت به گفتگوي برجسته تري در مورد تأثير اين فناوري بر حقوق و آزادي هاي مدني نياز داريم. بدون تنظيم صحيح اين سيستم ها، ما مي توانيم دولت هاي پليسي را در کشورهاي مختلف دنيا ايجاد کنيم که در نهايت به از دست رفتن آزادي هاي اجتماعي و تشکيل دولت هاي سرکوب گر منتهي مي شود. فاشيسم با اين تکنولوژي يک قدم به جامعه جهاني نزديک تر مي شود.


برچسب ها : ابهامات , در , تکنولوژی , تشخیص , چهره , ! ,
+ نوشته شده در پنجشنبه 30 بهمن 1399ساعت 16:10 توسط sama | | تعداد بازدید : 0