گوگل فوٹو ایپ ایک زبردست اور نسل پرستانہ غلطی کرتی ہے۔
اپنے آغاز کے بعد سے، Google Photos سروس نے خصوصی میڈیا اور صارفین کی توجہ مبذول کرائی ہے۔ برابر حصوں میں۔ اور ایسا لگتا ہے کہ اس نے حلاسمارٹ فونز اور فوٹوگرافس فی الحال: ایک بادل جس میں لامحدود جگہ ہے اور بغیر کسی قیمت کے یقیناً کچھ حدود کو مدنظر رکھتے ہوئے کہ، اس وقت، کسی بھی بصری فرق کا مطلب نہیں کمپریسڈ فوٹوز اور جو نہیں ہیں ان کے درمیان تاکہ ان رکاوٹوں کو عبور نہ کیا جاسکے۔یہ سب کچھ بہت ہی دلچسپ فنکشنز کے ساتھ ہے جیسے اینیمیشنز یا کولیجز کی خودکار تخلیق، یا تصاویر کی ذہین تنظیم۔ لیکن یہ بالکل اس آخری خصوصیت میں ہے جہاں سروس نےبدترین ممکنہ طریقے سے خراب کیا ہے
اور، اب تک، تقریباً ہر چیز اس سروس کی تعریف کر رہی تھی، یہاں تک کہ ایک صارف نے سوشل نیٹ ورک ٹویٹر پر ایک بڑی غلطی کی شکایت کی۔ : نے ایک تصویر کو ٹیگ کیا ہے جس میں دو سیاہ فام لوگ (صارف خود اور اس کی گرل فرینڈ) گوریلا ، اندر جانور ایک خوش جس میں بہت سے ہو سکتے ہیں نسل پرست مفہوم اور جس نے سوشل نیٹ ورکس اور دونوں کے اندر کچھ چھالے پیدا کیے ہیں Google
نوجوان کی شکایت کے بعد Twitter، براہ راست گوگلاس حوالے سے وضاحت طلب کرنے کے لیے سروس کے ذمہ دار انجینئرز میں سے ایک نے جواب دینے میں دیر نہ لگائی معافی مانگتے ہوئے غلطی کو قبول کرتے ہوئے میں داخل نہ ہونے کی کوشش کی۔ کیسے یا کیوں معاملے کے بارے میں گفتگو۔
Google کے مطابق، وہ اس واقعہ پر افسوس کا اظہار کرتے ہیں اور پہلے ہی کے ٹیگنگ سسٹم کو بہتر بنانے پر کام کر رہے ہیں۔ گوگل فوٹوز آج تک، سروس اس کلاؤڈ پر اپ لوڈ کی گئی تصاویر کا تجزیہ کرتی ہے یہ جاننے کے لیے کہ تصاویر میں کیا نظر آتا ہے۔ آج تک کا ایک کافی کامیاب فنکشن، فلک بوس عمارتوں، جھیلوں کا پتہ لگانے، جانوروں کے درمیان فرق کرنے، کھانے کی تصاویر کی شناخت، مناظر کی تصاویر، اور ایک بہت لمبا وغیرہ۔ یہ سچ ہے کہ اس میں ابھی بھی ناکامیاں ہیں کبھی کبھار کیسے کتے کو گھوڑوں سے الجھائیں، یا نہیں صحیح طریقے سے کچھ عناصر کی شناخت کریں جو ان کی کامیابی کے فیصد کی وجہ سے دوسری تصاویر میں واضح، حیران کن نظر آتے ہیں۔لیکن میں نے کبھی بھی لوگوں کو بندروں سے الجھایا نہیں تھا اور اس سے بھی کم جب نسل اور جلد کی رنگت کا مسئلہ شامل ہو۔
بظاہر سروس کو ابھی بھی کچھ بہتری کی ضرورت ہے، اس لیے گوگل نے گوریلاز ٹیگ ہٹا دیا ہے۔ اس مسئلے کو دوبارہ ہونے سے روکنے کے لیے۔ اس کے علاوہ، وہ اپنے الگورتھم کو بہتر بنانے کا دعویٰ کرتے ہیں تاکہ تجزیہ اور ٹیگنگ زیادہ درست ہو تاہم اس کا سسٹم سمارٹ ہے، اور نئی تصاویر کا تجزیہ کرکے سیکھتا ہے، اس لیے یہ وقت کے ساتھ ساتھ بہتر ہوتا جائے گا کیونکہ زیادہ صارفین اسے استعمال کرتے ہیں۔
یہ ایک مشین کو انچارج چھوڑنے کے معمول کے مسائل ہیں، بغیر استدلال کی صلاحیت کے شخص۔ اس وقت ایسا لگتا ہے کہ مسئلہ بن گیا ہے بدصورت واقعہ,Taking Remedial فوری طور پر اقدامات اور نسل پرستی کے مسئلے کے حوالے سے لہجے کو نرم کرنے کی کوشش کرنا۔یقیناً یہ اس قسم کا پہلا مسئلہ نہیں ہے جو ہوتا ہے۔ دیگر پروگرامز اور شناختی سافٹ ویئر صارفین کی جلد کے لہجے کو درست طریقے سے پہچاننے میں ناکام ہونے سے اسی طرح کے مسائل کا سامنا کرنا پڑا ہے ، یا کسی تصویر کی روشنی اور روشنی کی غلط شناخت کرکے۔
