റെസ്പോൺസിബിൾ AI
(അല്പം നീണ്ട ലേഖനമാണ്. വായിക്കാൻ സമയമില്ലെങ്കിൽ അവസാനത്തെ ഭാഗം മാത്രം ഓടിച്ചുനോക്കിയാലും മതി.)
‘ഓറിയ, നീ എഴുതൂ’ എന്ന പേരിൽ മലയാള മനോരമയിൽ വന്ന കുറിപ്പ് നിങ്ങളിൽ ചിലരെങ്കിലും വായിച്ചുകാണും. സ്ലീബയും ഫാബിനും ചേർന്ന് നിർമ്മിച്ചെടുത്ത, പൂർണ്ണമായും ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിലൂടെ പ്രവർത്തിക്കുന്ന, കവിയും ചിത്രകാരിയുമാണ് ഓറിയ കാത്തി.
മേൽപ്പറഞ്ഞ കുറിപ്പിൽ മനോരമ ലേഖകൻ ജിക്കു വർഗീസ് ജേക്കബ് എഴുത്തിച്ചേർത്ത ഒരു വരിയുണ്ട്:
“ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിലൂടെ മൗലിക കവിത എഴുതാനും ചിത്രം വരയ്ക്കാനും കഴിയുമോ? അങ്ങനെ വരച്ചാൽ സ്വത്തവകാശം ആർക്ക് തുടങ്ങിയ ചോദ്യങ്ങളും ഇവരുടെ ഗവേഷണം ഉയർത്തുന്നു.”
ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിനെ പൊതുവേ സംശയത്തോടേ വീക്ഷിക്കുന്നവരെ കൂടുതൽ ദോഷൈകദൃക്കുകളാക്കാനേ ഇത്തരം ചോദ്യങ്ങൾ സഹായിക്കുകയുള്ളൂ. Responsible AI എന്നത് AI-യുടെ center of excellence ആയി പരിഗണിക്കപ്പെടുന്ന, മൈക്രോസോഫ്റ്റ് ഉൾപ്പെടേയുള്ള, പല സ്ഥാപനങ്ങൾക്കും ഇന്ന് വെറും ആലങ്കാരികവാക്കുകളല്ല.
ബിസിനസ് സ്റ്റാൻഡേഡിൽ നികിത പുരി എഴുതിയ ‘Being human’ എന്ന ലേഖനത്തിൽ [1, 2] ഇക്കാര്യത്തെക്കുറിച്ച് സൂചന നൽകുന്നുണ്ട്. (ലേഖനത്തിന്റെ ഫോക്കസ് വേറേ ആയതുകാരണം Responsible AI-യെപ്പറ്റി ഈ കുറിപ്പിൽ അധികം വിശദീകരിച്ചിട്ടില്ല.)
Responsible AI-യെപ്പറ്റി കുറച്ചുകൂടി വിശദീകരിക്കാനാണ് ഈ കുറിപ്പ്.
മനുഷ്യകുലത്തിന്റെ ചരിത്രത്തിൽ, നമുക്കുവേണ്ടി തീരുമാനങ്ങളെടുക്കുവാൻ കമ്പ്യൂട്ടറുകളെ ചുമതലപ്പെടുത്തിയ ആദ്യതലമുറയാണ് നമ്മുടേത്. ഈ തീരുമാനങ്ങളെല്ലാം കമ്പ്യൂട്ടറുകളെ ഏൽപ്പിക്കുന്നതിനു മുമ്പ് മനുഷ്യർ തന്നെയാണ് കാലാകാലങ്ങളായി എടുത്തിട്ടുള്ളത്. അതിനാൽ തന്നെ, ഇക്കാര്യത്തിൽ കമ്പ്യൂട്ടറുകൾ വീഴ്ചവരുത്തരുത് എന്നത് അടിസ്ഥാനപരമായ ആവശ്യമായിരിക്കുന്നു.
കമ്പ്യൂട്ടറിനെ എങ്ങനെയാണ് നൈതികതയും ധാര്മ്മികതയും പഠിപ്പിക്കുക?
ഏറ്റവും ചുരുക്കിപ്പറഞ്ഞാൽ, ഏതൊരു AI മോഡലിന്റേയും കൃത്യത (accuracy) ആ മോഡൽ ഉണ്ടാക്കാൻ (train) ഉപയോഗിച്ച data-യെ അനുസരിച്ചിരിക്കും. Data-യിലെ പോരായ്മകളും മുൻവിധികളും (bias) ഉപയോഗങ്ങളിലും ആപ്പുകളിലും കയറിപ്പറ്റും. മനഃപൂർവ്വമല്ലാതെ കയറിപ്പറ്റുന്ന പക്ഷപാതങ്ങളെ പരമാവധി ഒഴിവാക്കാൻ AI-based decision making applications ചില മാനദണ്ഡങ്ങൾ സ്വീകരിക്കേണ്ടിയിരിക്കുന്നു.
അവയിൽ ഏറ്റവും പ്രധാനപ്പെട്ടതാണ് fairness. AI systems should treat all people fairly. നമ്മളോരോരുത്തരുടേയും ഭാവിയെ ബാധിക്കുന്ന രീതിയിലുള്ള തീരുമാനങ്ങൾ എടുക്കാനധികാരമുള്ള ആളുകളിൽത്തന്നെ (human decision makers) fairness കുറഞ്ഞുവരുന്ന കാലത്ത് AI systems-ൽ fairness ഉറപ്പാക്കേണ്ടത് വിശ്വാസ്യതയുടെകൂടി പ്രശ്നമാണ്. പ്രസിദ്ധമായ COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) recidivism prediction algorithm-ൽ വന്ന പാകപ്പിഴകൾ നമുക്കു മുന്നിലുണ്ട്. COMPAS, അമേരിക്കൻ ഐക്യനാടുകളിലെ പല കോർട്ടുകളും ഉപയോഗിക്കുന്ന ഒന്നാണ്. After analyzing the model predictions by COMPAS, it was discovered that black defendants were often predicted to be at a higher risk of recidivism than they actually were. Black defendants who did not recidivate over a two-year period were nearly twice as likely to be misclassified as higher risk compared to their white counterparts (45% vs. 24%). White defendants who re-offended within the next two years were mistakenly labeled low risk almost twice as often as black re-offenders (48% vs. 28%). [Link].
രണ്ടാമത്തേത് inclusiveness ആണ്. AI systems should empower and engage everyone. വാണിജ്യാടിസ്ഥാനത്തിൽ വിൽക്കപ്പെടുന്ന, Microsoft, Face++, IBM എന്നിവർ നിർമ്മിച്ച face recognition ആപ്ലിക്കേഷനുകളിൽ പോലും നിറം കുറവുള്ള വനിതകളുടെ (females with darker skin color) face recognition കൃത്യത വളരെക്കുറവാണെന്ന് കണ്ടെത്തിയിട്ടുണ്ട്. All classifiers performed worst on darker female faces (21%−35% error rate). തൊലിവെളുത്ത ആണുങ്ങളുടെ face recognition-ൽ 0%-1% ആയിരുന്നു error rate. ചുരുക്കത്തിൽ, ഈ സൊഫ്റ്റ്വെയറുകൾ ഉപയോഗിച്ചയിടങ്ങളിൽ ആഫ്രിക്കൻ-അമേരിക്കൻ വനിതകൾക്ക് വളരെ മോശമായ സേവനമാണ് ലഭ്യമായത്.
Transparency ആണ് അടുത്തത്. AI systems should be understandable. Model Interpretability എന്നത് വളർന്നുവരുന്ന ഒരു Machine Learning ശാഖയാണ്. You should be able to explain why your model made the predictions it did. നിങ്ങൾ ബാങ്ക് ലോണിന് അപേക്ഷിക്കുന്നു എന്നുവയ്ക്കുക. ഓൺലൈൻ അപേക്ഷകൾ പലതും മിനിട്ടിനുള്ളിൽ തന്നെ ഉത്തരം (ലോൺ കിട്ടുമോ ഇല്ലേ) ലഭിക്കുന്ന രീതിയിലാണ് തയ്യാറാക്കിയിട്ടുള്ളത്. ഇത്തരം ആപ്ലിക്കേഷനുകൾക്കു പിന്നിൽ ഒരു Machine Learning Model ആണ് തീരുമാനമെടുക്കുന്നത്. നിങ്ങളുടെ ലോൺ അപേക്ഷ ഈ മോഡൽ തള്ളുന്നു എന്നു കരുതുക. എന്തുകൊണ്ടാണ് ലോൺ പാസാവാതെ പോയത് എന്നറിയാൻ നിങ്ങൾക്കു വഴിയുണ്ടോ? പലപ്പോഴും ആ മോഡൽ തയ്യാറാക്കിയ ഡാറ്റാ സയന്റിസ്റ്റിനു പോലും റിസൽട്ട് വ്യാഖ്യാനിക്കാൻ പ്രയാസമായി വരും. അപേക്ഷ തള്ളാൻ കാരണം നിങ്ങളുടെ gender, ethnicity തുടങ്ങിയ കാരണങ്ങൾ വല്ലതുമാണോ? അതോ നിങ്ങളുടെ വാർഷിക വരുമാനം കുറവായതു കൊണ്ടോ? എന്തു പരിഹാരക്രിയ ചെയ്താൽ ലോൺ കിട്ടുമെന്ന് നിങ്ങൾക്ക് എങ്ങനെ അറിയാം? Wolf vs Husky ക്ലാസിഫിക്കേഷൻ പ്രസിദ്ധമാണ്. The model was achieving high accuracy when predicting an animal wolf or a husky. But when model interpretability was used, the reason for classifying a wolf as a wolf was the presence of snow in the pictures. The classifier predicted “Wolf” if there was snow (or light background at the bottom), and “Husky” otherwise, regardless of animal color, position, or pose. In short, instead of a Wolf v Husky classifier, we got a perfect snow detector! കൂടുതൽ വായനയ്ക്ക്: “Why Should I Trust You?” Explaining the Predictions of Any Classifier.
Privacy ആണ് ഇനിയുള്ളത്. AI systems should be secure and respect privacy. Latanya Sweeney, currently a Professor of Government and Technology in Residence at Harvard University, famous for her k-anonimity paper noted that "87% of the U.S. population is uniquely identified by date of birth, gender, postal code." Latanya Sweeney, then a MIT graduate student in computer science, was able to identify the medical records of William Weld (then Massachusetts Governor) in the Massachusetts Group Insurance Commission (GIC) database.
AI സിസ്റ്റങ്ങൾക്ക് വേണ്ടുന്ന ഗുണങ്ങളിലൊന്നാണ് algorithmic accountability. ഇക്കഴിഞ്ഞ മാർച്ചിൽ US Department of Housing and Urban Development വിവേചനമാരോപിച്ച് ഫേയ്സ്ബുക്കിനെതിരേ കേസ് കൊടുത്തിരുന്നു. Fair Housing Act അതിലംഘിച്ചു എന്നതായിരുന്നു ഫേയ്സ്ബുക്കിനെതിരേയുള്ള ആരോപണം. വീടും അപ്പാർട്ടുമെന്റും മറ്റും പണം കൊടുത്ത് പരസ്യങ്ങൾ ചെയ്യുമ്പോൾ ചില ജാതി/മത/ലിംഗ വിഭാഗങ്ങളെ ഉൾപ്പെടുത്താനോ ഒഴിവാക്കാനോ ഫേയ്സ്ബുക്ക് സഹായിക്കുന്നത് വിവേചനപരമാണ് എന്നതായിരുന്നു കേസിന്റെ കാതൽ. ഈ സാഹചര്യത്തിലാണ് US കോൺഗ്രസ് Algorithmic Accountability Act of 2019 അവതരിപ്പിച്ചിരിക്കുന്നത്.
സങ്കീർണ്ണമായ സന്ദർഭങ്ങളുടെ പ്രതലം മാത്രമേ നമ്മൾ കണ്ടുതുടങ്ങിയിട്ടുള്ളൂ. AI Systems-ന്റെ വ്യാപനം നൈതികതയുടെ (ethics) മാത്രം കാര്യമല്ല. അപൂർവ്വമെന്നു പെട്ടെന്നു തോന്നുന്ന ഒരു സാങ്കല്പിക സാഹചര്യം പരിഗണിക്കുക.
നിങ്ങൾ Level-5 automation ഉള്ള കാറിൽ സഞ്ചരിക്കുന്നു (ഇത് അത്ര വിദൂരഭാവിയല്ല). മുന്നിൽ ഒരു സ്ത്രീയും കുട്ടിയും പെട്ടെന്ന് റോഡ് മുറിച്ചു കടക്കുന്നു. ബ്രേയ്ക്ക് ചെയ്താലും അവരെ ഇടിച്ചു തെറിപ്പിക്കാതെ കാർ നിർത്താൻ പറ്റില്ല എന്ന സ്ഥിതി. ലെവൽ-5 automation-ൽ എല്ലാ തീരുമാനങ്ങളും autonomous driving system ആണ് എടുക്കുന്നത് എന്നത് ശ്രദ്ധിക്കുക. ഇവിടെ driving system-നു മുന്നിലുള്ള ഓപ്ഷനുകൾ നോക്കാം.
Assume the AI model is trained to be optimized for the safety of the people involved (driver, passenger[s], pedestrians). ഇതിൽ തന്നെ ആർക്കാണ് കൂടുതൽ പ്രാധാന്യം എന്നു ഒരു ഡ്രൈവറോടു ചോദിച്ചാൽ എന്തായിരിക്കും ഉത്തരം? സ്വന്തം സുരക്ഷ ഒന്നാമത്? പാസഞ്ചർ സീറ്റിലിരിക്കുന്ന തന്റെ ഏറ്റവും പ്രിയപ്പെട്ടയാളിന്റെ സുരക്ഷ തന്നേക്കാളും പ്രധാനപ്പെട്ടത്? അറിയാതെ വാഹനത്തിന്റെ മുന്നിൽ വന്നുപെട്ട തന്റെ സ്വന്തം കുട്ടിയുടെ സുരക്ഷ ഏറ്റവും പ്രധാനമായത്?
എന്നാൽ ഈ സാഹചര്യത്തിൽ, ബന്ധങ്ങളെ ഒഴിവാക്കിയാലോ? നിങ്ങൾ ടാക്സിയിലാണ്. മുന്നിൽ നിങ്ങൾക്ക് പരിചയമില്ലാത്ത ഒരു സ്ത്രീയും കുട്ടിയും പെട്ടെന്ന് റോഡ് മുറിച്ചു കടക്കുന്നു. നിർത്താൻ സമയമില്ല. വലതു വശത്തേയ്ക്ക് വെട്ടിച്ചുമാറ്റിയാൽ മുന്നിലുള്ള സ്ത്രീയേയും കുട്ടിയേയും രക്ഷിക്കാം. പക്ഷേ, വലതു വശത്ത് വലിയൊരു കന്മതിലാണ്. അതിലിടിച്ചാൽ യാത്രക്കാരനായ നിങ്ങളുടെ കാര്യം ചിലപ്പോൾ അപകടത്തിലാവും. ഇനി ഇടതുവശത്തേയ്ക്കു വെട്ടിയ്ക്കാമെന്നു വച്ചാലോ അവിടെ നിൽക്കുന്ന മൂന്നു വൃദ്ധന്മാരെ ഇടിച്ചു തെറിപ്പിക്കേണ്ടി വരും. ഈ മാർഗ്ഗത്തിൽ സ്വന്തം സുരക്ഷയും ഉറപ്പല്ല (AI systems do not have this issue). ആരെങ്കിലും മരിക്കാതെ തരമില്ല എന്നു വരുമ്പോൾ, ഡ്രൈവറുടെ ഭാഗത്തു നിന്നു നോക്കിയാൽ ഏതാണ് ശരിയായ തീരുമാനം?
യാത്രികന്റെ സുരക്ഷയാണോ മറ്റു സഹജീവികളുടെ സുരക്ഷയിലും വലുത്? യാത്രക്കാരനായ/യാത്രക്കാരിയായ ഒരാളിന്റെയോ ജീവനാണോ അതോ, പല സമൂഹങ്ങളിലും പരസഹായമർഹിക്കുന്നവർ എന്നു കരുതിപ്പോരുന്ന, രണ്ടുപേരുടെ സംഘമായ സ്ത്രീയുടേയും കുട്ടിയുടേയും ജീവനോ? അതുമല്ലെങ്കിൽ, ജീവിതം ജീവിച്ചുതീർത്തെന്ന് പൊതുവേ കരുതുന്ന മൂന്നു വൃദ്ധജനങ്ങളുടെ ജീവനോ? എണ്ണം കൊണ്ടോ പ്രായം കൊണ്ടോ, ലിംഗവ്യത്യാസം കൊണ്ടോ തീരുമാനിക്കാവുന്നതാണോ ആര് ജീവിക്കണം എന്നത്? ഇത്തരം തീരുമാനങ്ങൾ Machine Learning Model വികസിപ്പിച്ചെടുത്ത/train ചെയ്ത data scientist(s) ആണോ എടുക്കേണ്ടത്? The decisions usually made by states, courts, and other governmental bodies are going to be decided by AI systems.
അതുകൊണ്ടു കൂടിയാണ് നൈതികതയും ധാര്മ്മികതയും മുൻനിർത്തിയുള്ള Responsible AI പ്രാരംഭങ്ങൾക്ക് സാംഗത്യമേറുന്നത്.
‘ഓറിയ, നീ എഴുതൂ’ എന്ന പേരിൽ മലയാള മനോരമയിൽ വന്ന കുറിപ്പ് നിങ്ങളിൽ ചിലരെങ്കിലും വായിച്ചുകാണും. സ്ലീബയും ഫാബിനും ചേർന്ന് നിർമ്മിച്ചെടുത്ത, പൂർണ്ണമായും ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിലൂടെ പ്രവർത്തിക്കുന്ന, കവിയും ചിത്രകാരിയുമാണ് ഓറിയ കാത്തി.
മേൽപ്പറഞ്ഞ കുറിപ്പിൽ മനോരമ ലേഖകൻ ജിക്കു വർഗീസ് ജേക്കബ് എഴുത്തിച്ചേർത്ത ഒരു വരിയുണ്ട്:
“ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിലൂടെ മൗലിക കവിത എഴുതാനും ചിത്രം വരയ്ക്കാനും കഴിയുമോ? അങ്ങനെ വരച്ചാൽ സ്വത്തവകാശം ആർക്ക് തുടങ്ങിയ ചോദ്യങ്ങളും ഇവരുടെ ഗവേഷണം ഉയർത്തുന്നു.”
ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിനെ പൊതുവേ സംശയത്തോടേ വീക്ഷിക്കുന്നവരെ കൂടുതൽ ദോഷൈകദൃക്കുകളാക്കാനേ ഇത്തരം ചോദ്യങ്ങൾ സഹായിക്കുകയുള്ളൂ. Responsible AI എന്നത് AI-യുടെ center of excellence ആയി പരിഗണിക്കപ്പെടുന്ന, മൈക്രോസോഫ്റ്റ് ഉൾപ്പെടേയുള്ള, പല സ്ഥാപനങ്ങൾക്കും ഇന്ന് വെറും ആലങ്കാരികവാക്കുകളല്ല.
ബിസിനസ് സ്റ്റാൻഡേഡിൽ നികിത പുരി എഴുതിയ ‘Being human’ എന്ന ലേഖനത്തിൽ [1, 2] ഇക്കാര്യത്തെക്കുറിച്ച് സൂചന നൽകുന്നുണ്ട്. (ലേഖനത്തിന്റെ ഫോക്കസ് വേറേ ആയതുകാരണം Responsible AI-യെപ്പറ്റി ഈ കുറിപ്പിൽ അധികം വിശദീകരിച്ചിട്ടില്ല.)
Responsible AI-യെപ്പറ്റി കുറച്ചുകൂടി വിശദീകരിക്കാനാണ് ഈ കുറിപ്പ്.
മനുഷ്യകുലത്തിന്റെ ചരിത്രത്തിൽ, നമുക്കുവേണ്ടി തീരുമാനങ്ങളെടുക്കുവാൻ കമ്പ്യൂട്ടറുകളെ ചുമതലപ്പെടുത്തിയ ആദ്യതലമുറയാണ് നമ്മുടേത്. ഈ തീരുമാനങ്ങളെല്ലാം കമ്പ്യൂട്ടറുകളെ ഏൽപ്പിക്കുന്നതിനു മുമ്പ് മനുഷ്യർ തന്നെയാണ് കാലാകാലങ്ങളായി എടുത്തിട്ടുള്ളത്. അതിനാൽ തന്നെ, ഇക്കാര്യത്തിൽ കമ്പ്യൂട്ടറുകൾ വീഴ്ചവരുത്തരുത് എന്നത് അടിസ്ഥാനപരമായ ആവശ്യമായിരിക്കുന്നു.
കമ്പ്യൂട്ടറിനെ എങ്ങനെയാണ് നൈതികതയും ധാര്മ്മികതയും പഠിപ്പിക്കുക?
ഏറ്റവും ചുരുക്കിപ്പറഞ്ഞാൽ, ഏതൊരു AI മോഡലിന്റേയും കൃത്യത (accuracy) ആ മോഡൽ ഉണ്ടാക്കാൻ (train) ഉപയോഗിച്ച data-യെ അനുസരിച്ചിരിക്കും. Data-യിലെ പോരായ്മകളും മുൻവിധികളും (bias) ഉപയോഗങ്ങളിലും ആപ്പുകളിലും കയറിപ്പറ്റും. മനഃപൂർവ്വമല്ലാതെ കയറിപ്പറ്റുന്ന പക്ഷപാതങ്ങളെ പരമാവധി ഒഴിവാക്കാൻ AI-based decision making applications ചില മാനദണ്ഡങ്ങൾ സ്വീകരിക്കേണ്ടിയിരിക്കുന്നു.
അവയിൽ ഏറ്റവും പ്രധാനപ്പെട്ടതാണ് fairness. AI systems should treat all people fairly. നമ്മളോരോരുത്തരുടേയും ഭാവിയെ ബാധിക്കുന്ന രീതിയിലുള്ള തീരുമാനങ്ങൾ എടുക്കാനധികാരമുള്ള ആളുകളിൽത്തന്നെ (human decision makers) fairness കുറഞ്ഞുവരുന്ന കാലത്ത് AI systems-ൽ fairness ഉറപ്പാക്കേണ്ടത് വിശ്വാസ്യതയുടെകൂടി പ്രശ്നമാണ്. പ്രസിദ്ധമായ COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) recidivism prediction algorithm-ൽ വന്ന പാകപ്പിഴകൾ നമുക്കു മുന്നിലുണ്ട്. COMPAS, അമേരിക്കൻ ഐക്യനാടുകളിലെ പല കോർട്ടുകളും ഉപയോഗിക്കുന്ന ഒന്നാണ്. After analyzing the model predictions by COMPAS, it was discovered that black defendants were often predicted to be at a higher risk of recidivism than they actually were. Black defendants who did not recidivate over a two-year period were nearly twice as likely to be misclassified as higher risk compared to their white counterparts (45% vs. 24%). White defendants who re-offended within the next two years were mistakenly labeled low risk almost twice as often as black re-offenders (48% vs. 28%). [Link].
രണ്ടാമത്തേത് inclusiveness ആണ്. AI systems should empower and engage everyone. വാണിജ്യാടിസ്ഥാനത്തിൽ വിൽക്കപ്പെടുന്ന, Microsoft, Face++, IBM എന്നിവർ നിർമ്മിച്ച face recognition ആപ്ലിക്കേഷനുകളിൽ പോലും നിറം കുറവുള്ള വനിതകളുടെ (females with darker skin color) face recognition കൃത്യത വളരെക്കുറവാണെന്ന് കണ്ടെത്തിയിട്ടുണ്ട്. All classifiers performed worst on darker female faces (21%−35% error rate). തൊലിവെളുത്ത ആണുങ്ങളുടെ face recognition-ൽ 0%-1% ആയിരുന്നു error rate. ചുരുക്കത്തിൽ, ഈ സൊഫ്റ്റ്വെയറുകൾ ഉപയോഗിച്ചയിടങ്ങളിൽ ആഫ്രിക്കൻ-അമേരിക്കൻ വനിതകൾക്ക് വളരെ മോശമായ സേവനമാണ് ലഭ്യമായത്.
Transparency ആണ് അടുത്തത്. AI systems should be understandable. Model Interpretability എന്നത് വളർന്നുവരുന്ന ഒരു Machine Learning ശാഖയാണ്. You should be able to explain why your model made the predictions it did. നിങ്ങൾ ബാങ്ക് ലോണിന് അപേക്ഷിക്കുന്നു എന്നുവയ്ക്കുക. ഓൺലൈൻ അപേക്ഷകൾ പലതും മിനിട്ടിനുള്ളിൽ തന്നെ ഉത്തരം (ലോൺ കിട്ടുമോ ഇല്ലേ) ലഭിക്കുന്ന രീതിയിലാണ് തയ്യാറാക്കിയിട്ടുള്ളത്. ഇത്തരം ആപ്ലിക്കേഷനുകൾക്കു പിന്നിൽ ഒരു Machine Learning Model ആണ് തീരുമാനമെടുക്കുന്നത്. നിങ്ങളുടെ ലോൺ അപേക്ഷ ഈ മോഡൽ തള്ളുന്നു എന്നു കരുതുക. എന്തുകൊണ്ടാണ് ലോൺ പാസാവാതെ പോയത് എന്നറിയാൻ നിങ്ങൾക്കു വഴിയുണ്ടോ? പലപ്പോഴും ആ മോഡൽ തയ്യാറാക്കിയ ഡാറ്റാ സയന്റിസ്റ്റിനു പോലും റിസൽട്ട് വ്യാഖ്യാനിക്കാൻ പ്രയാസമായി വരും. അപേക്ഷ തള്ളാൻ കാരണം നിങ്ങളുടെ gender, ethnicity തുടങ്ങിയ കാരണങ്ങൾ വല്ലതുമാണോ? അതോ നിങ്ങളുടെ വാർഷിക വരുമാനം കുറവായതു കൊണ്ടോ? എന്തു പരിഹാരക്രിയ ചെയ്താൽ ലോൺ കിട്ടുമെന്ന് നിങ്ങൾക്ക് എങ്ങനെ അറിയാം? Wolf vs Husky ക്ലാസിഫിക്കേഷൻ പ്രസിദ്ധമാണ്. The model was achieving high accuracy when predicting an animal wolf or a husky. But when model interpretability was used, the reason for classifying a wolf as a wolf was the presence of snow in the pictures. The classifier predicted “Wolf” if there was snow (or light background at the bottom), and “Husky” otherwise, regardless of animal color, position, or pose. In short, instead of a Wolf v Husky classifier, we got a perfect snow detector! കൂടുതൽ വായനയ്ക്ക്: “Why Should I Trust You?” Explaining the Predictions of Any Classifier.
Privacy ആണ് ഇനിയുള്ളത്. AI systems should be secure and respect privacy. Latanya Sweeney, currently a Professor of Government and Technology in Residence at Harvard University, famous for her k-anonimity paper noted that "87% of the U.S. population is uniquely identified by date of birth, gender, postal code." Latanya Sweeney, then a MIT graduate student in computer science, was able to identify the medical records of William Weld (then Massachusetts Governor) in the Massachusetts Group Insurance Commission (GIC) database.
AI സിസ്റ്റങ്ങൾക്ക് വേണ്ടുന്ന ഗുണങ്ങളിലൊന്നാണ് algorithmic accountability. ഇക്കഴിഞ്ഞ മാർച്ചിൽ US Department of Housing and Urban Development വിവേചനമാരോപിച്ച് ഫേയ്സ്ബുക്കിനെതിരേ കേസ് കൊടുത്തിരുന്നു. Fair Housing Act അതിലംഘിച്ചു എന്നതായിരുന്നു ഫേയ്സ്ബുക്കിനെതിരേയുള്ള ആരോപണം. വീടും അപ്പാർട്ടുമെന്റും മറ്റും പണം കൊടുത്ത് പരസ്യങ്ങൾ ചെയ്യുമ്പോൾ ചില ജാതി/മത/ലിംഗ വിഭാഗങ്ങളെ ഉൾപ്പെടുത്താനോ ഒഴിവാക്കാനോ ഫേയ്സ്ബുക്ക് സഹായിക്കുന്നത് വിവേചനപരമാണ് എന്നതായിരുന്നു കേസിന്റെ കാതൽ. ഈ സാഹചര്യത്തിലാണ് US കോൺഗ്രസ് Algorithmic Accountability Act of 2019 അവതരിപ്പിച്ചിരിക്കുന്നത്.
സങ്കീർണ്ണമായ സന്ദർഭങ്ങളുടെ പ്രതലം മാത്രമേ നമ്മൾ കണ്ടുതുടങ്ങിയിട്ടുള്ളൂ. AI Systems-ന്റെ വ്യാപനം നൈതികതയുടെ (ethics) മാത്രം കാര്യമല്ല. അപൂർവ്വമെന്നു പെട്ടെന്നു തോന്നുന്ന ഒരു സാങ്കല്പിക സാഹചര്യം പരിഗണിക്കുക.
നിങ്ങൾ Level-5 automation ഉള്ള കാറിൽ സഞ്ചരിക്കുന്നു (ഇത് അത്ര വിദൂരഭാവിയല്ല). മുന്നിൽ ഒരു സ്ത്രീയും കുട്ടിയും പെട്ടെന്ന് റോഡ് മുറിച്ചു കടക്കുന്നു. ബ്രേയ്ക്ക് ചെയ്താലും അവരെ ഇടിച്ചു തെറിപ്പിക്കാതെ കാർ നിർത്താൻ പറ്റില്ല എന്ന സ്ഥിതി. ലെവൽ-5 automation-ൽ എല്ലാ തീരുമാനങ്ങളും autonomous driving system ആണ് എടുക്കുന്നത് എന്നത് ശ്രദ്ധിക്കുക. ഇവിടെ driving system-നു മുന്നിലുള്ള ഓപ്ഷനുകൾ നോക്കാം.
Assume the AI model is trained to be optimized for the safety of the people involved (driver, passenger[s], pedestrians). ഇതിൽ തന്നെ ആർക്കാണ് കൂടുതൽ പ്രാധാന്യം എന്നു ഒരു ഡ്രൈവറോടു ചോദിച്ചാൽ എന്തായിരിക്കും ഉത്തരം? സ്വന്തം സുരക്ഷ ഒന്നാമത്? പാസഞ്ചർ സീറ്റിലിരിക്കുന്ന തന്റെ ഏറ്റവും പ്രിയപ്പെട്ടയാളിന്റെ സുരക്ഷ തന്നേക്കാളും പ്രധാനപ്പെട്ടത്? അറിയാതെ വാഹനത്തിന്റെ മുന്നിൽ വന്നുപെട്ട തന്റെ സ്വന്തം കുട്ടിയുടെ സുരക്ഷ ഏറ്റവും പ്രധാനമായത്?
എന്നാൽ ഈ സാഹചര്യത്തിൽ, ബന്ധങ്ങളെ ഒഴിവാക്കിയാലോ? നിങ്ങൾ ടാക്സിയിലാണ്. മുന്നിൽ നിങ്ങൾക്ക് പരിചയമില്ലാത്ത ഒരു സ്ത്രീയും കുട്ടിയും പെട്ടെന്ന് റോഡ് മുറിച്ചു കടക്കുന്നു. നിർത്താൻ സമയമില്ല. വലതു വശത്തേയ്ക്ക് വെട്ടിച്ചുമാറ്റിയാൽ മുന്നിലുള്ള സ്ത്രീയേയും കുട്ടിയേയും രക്ഷിക്കാം. പക്ഷേ, വലതു വശത്ത് വലിയൊരു കന്മതിലാണ്. അതിലിടിച്ചാൽ യാത്രക്കാരനായ നിങ്ങളുടെ കാര്യം ചിലപ്പോൾ അപകടത്തിലാവും. ഇനി ഇടതുവശത്തേയ്ക്കു വെട്ടിയ്ക്കാമെന്നു വച്ചാലോ അവിടെ നിൽക്കുന്ന മൂന്നു വൃദ്ധന്മാരെ ഇടിച്ചു തെറിപ്പിക്കേണ്ടി വരും. ഈ മാർഗ്ഗത്തിൽ സ്വന്തം സുരക്ഷയും ഉറപ്പല്ല (AI systems do not have this issue). ആരെങ്കിലും മരിക്കാതെ തരമില്ല എന്നു വരുമ്പോൾ, ഡ്രൈവറുടെ ഭാഗത്തു നിന്നു നോക്കിയാൽ ഏതാണ് ശരിയായ തീരുമാനം?
യാത്രികന്റെ സുരക്ഷയാണോ മറ്റു സഹജീവികളുടെ സുരക്ഷയിലും വലുത്? യാത്രക്കാരനായ/യാത്രക്കാരിയായ ഒരാളിന്റെയോ ജീവനാണോ അതോ, പല സമൂഹങ്ങളിലും പരസഹായമർഹിക്കുന്നവർ എന്നു കരുതിപ്പോരുന്ന, രണ്ടുപേരുടെ സംഘമായ സ്ത്രീയുടേയും കുട്ടിയുടേയും ജീവനോ? അതുമല്ലെങ്കിൽ, ജീവിതം ജീവിച്ചുതീർത്തെന്ന് പൊതുവേ കരുതുന്ന മൂന്നു വൃദ്ധജനങ്ങളുടെ ജീവനോ? എണ്ണം കൊണ്ടോ പ്രായം കൊണ്ടോ, ലിംഗവ്യത്യാസം കൊണ്ടോ തീരുമാനിക്കാവുന്നതാണോ ആര് ജീവിക്കണം എന്നത്? ഇത്തരം തീരുമാനങ്ങൾ Machine Learning Model വികസിപ്പിച്ചെടുത്ത/train ചെയ്ത data scientist(s) ആണോ എടുക്കേണ്ടത്? The decisions usually made by states, courts, and other governmental bodies are going to be decided by AI systems.
അതുകൊണ്ടു കൂടിയാണ് നൈതികതയും ധാര്മ്മികതയും മുൻനിർത്തിയുള്ള Responsible AI പ്രാരംഭങ്ങൾക്ക് സാംഗത്യമേറുന്നത്.
Labels: സാങ്കേതിക വിദ്യ
0 Comments:
Post a Comment
<< Home