跳到主要內容
招聘與就業聯合會
研究

數據驅動的招聘指導工具

實用指南

在整個招聘行業,數據驅動工具的使用正在上升*。這為該部門提供了重要的機會,包括提高時間密集過程的效率。然而,也存在一些重大風險,一些引人注目的案例研究強調,如果這些工具設計和使用不當,可能會產生歧視性和不公平的結果。

CDEI對算法決策中的偏見的回顧強調了這些問題,並建議製定指導方針,以幫助招聘人員在使用數據驅動工具時做出明智的決定。該指導方針旨在為那些希望購買數據驅動工具的招聘人員提供有效評估和負責任地部署這些工具的機製,確保采取適當措施來降低風險和最大化機會。

該指南是由招聘和就業聯合會(REC)和數據倫理與創新中心(CDEI)聯合製定的。CDEI是一個政府專家機構,能夠可靠地使用數據和人工智能。關於CDEI的更多信息可以在CDEI網頁或者通過聯係cdei@cdei.gov.uk

一個節介紹了在招聘過程中使用的數據驅動工具,涵蓋了招聘漏鬥中現有的工具類型——跨采購、篩選和麵試——以及它們可能帶來的各種風險。

部分B提供關於合並和使用數據驅動工具的指導,包括:

  • 評估招聘過程的有效性和增值
  • 數據驅動工具的關鍵注意事項
  • 溝通你的方法,以促進信任和透明度。

我們使用術語“數據驅動工具”來指幫助從數據中生成有用見解的技術和技巧。從使用軟件進行大數據分析,到過程自動化係統,再到機器學習或其他形式的人工智能(AI)。

這主要是一份買家指南:它假設招聘人員正在使用從外部技術供應商購買的工具。但是,如果工具是內部構建的,大部分指導仍然適用。

重點是人工智能和數據驅動工具:除了現有的招聘合規做法外,還應使用該指南。

* (算法決策中的偏差研究綜述第三章:招聘)


總結建議

下表總結了本文件其餘部分提供的指導,特別適用於為招聘過程的篩選和麵試階段采購的工具。要了解更多細節和解釋,請參閱下麵的完整指南。

在購買之前

在采購

在使用前

使用中和使用後

表達的需求

尋求信息從供應商

驗證合法合規

考慮進行試點

透明度流程

監控和評估工具的性能

第一節:評估

列出你的目標用於采購文件中的工具

尋求信息從供應商那裏了解工具是如何工作的闡明任何擔憂

確保工具工作正常,在適當的地方使用飛行員進行測試

監控原始業務案例。

第2節:主要考慮因素

該校非歧視和可訪問性

開發內部基線對受保護群體的差異,商定可接受的限度

尋求信息從供應商那裏獲得關於潛在假設和測試偏差和可訪問性的信息。索取以下文件的副本審計文檔檢查審計的頻率。

考慮完成一個平等影響評估

評估工具的平等結果初步試驗

繼續測試等式結果在實踐中的工具

評估不同組之間的差異

數據保護、透明度和正當程序

開始完成數據保護影響評估(DPIA)

檢查遵守有關法例:英國2010年GDPR和平等法案

給候選人適當的數據收集通知

提供一種方法人工審核

確保持續的合法性(如維持dppa)

反思任何問題並與供應商討論

第三節:溝通和促進信任

與職位空缺者或客戶保持聯係了解自動化在哪些方麵適合於現有流程

考慮與受保護群體接觸和代表了解潛在的風險並作出反應

為候選人提供信息,讓他們意識到數據驅動工具的使用及其目的

尋求持續的反饋來自候選人和空缺人員


A節:招聘過程中使用的數據驅動工具

在本節中,我們將介紹招聘漏鬥中現有的工具類型以及它們可能帶來的各種風險。關於如何處理和減輕這些風險的指導意見可在下麵找到。

采購➔ ➔篩選 ➔采訪 選擇
職位描述審查軟件 符合條件的篩選工具 視頻麵試中的語音和人臉識別 背景調查的軟件
有針對性的廣告 簡曆匹配 提供預測軟件
招聘聊天機器人 心理測試和遊戲
獵頭軟件 排名算法

第1階段:采購工具

整個招聘部門都在使用采購工具,以吸引大量高質量的候選人,並開始為個人提供就業機會。例如,招聘廣告的受眾將對候選人的質量和那些可能有興趣申請的人的個人權利產生重大影響。

例如,在社交媒體上,定向廣告可以通過特定的標準達到合適的或新的候選人。

這些技術提供了機會,使招聘過程更有效,接觸到更廣泛的候選人,並為潛在申請者提供更定製的服務。在某些情況下,這些技術可以用來提高申請人池的多樣性,一些招聘專業人員已經這樣做了突出顯示這些工具的利用不足阻礙了多元化招聘。

然而,也有一些風險。采購階段決定了哪些候選人意識到機會,如果使用不當,這些工具可能會帶來不可預見的障礙——特別是對受保護群體而言——並可能產生歧視性或其他不公平的後果。

中的示例工具采購階段

推薦係統在平台和招聘板上,根據求職者的標準優先為他們提供職位空缺。

聊天機器人或對話AI與候選人互動:這些通常用於指導申請人通過流程的各個階段,可以提高效率。

基於語義候選人來源:使招聘人員能夠通過簡單的關鍵詞搜索或更複雜的主動和被動候選人識別來搜索最相關的候選人。

深度挖掘:定向在線廣告

社交媒體公司收集其平台用戶的信息,如姓名、教育背景、興趣愛好以及地點和使用模式。然後,平台可以使用這些數據來訓練機器學習模型,這些模型能夠對用戶進行推斷,並將類似類型的賬戶分組在一起。

根據所提供的信息和所做的推斷,招聘人員可以利用在線平台向具有相關特征的用戶定向投放廣告。他們可以利用人口特征來鎖定用戶,或者使用“相似”功能,將廣告定位於與客戶識別的個人資料相似的個人資料。

這些特征可以起到積極的作用:例如,多元化水平較低的公司可以考慮使用目標定位,以確保招聘廣告被更廣泛或更多樣化的受眾看到,而不是他們典型的求職者群體。然而,也有一些例子表明,這些瞄準工具複製了曆史偏見,限製了一些群體獲得機會的機會。

第二和第三階段:篩選和采訪工具

篩選和麵試階段是招聘過程中的關鍵決策時刻,數據驅動的工具可以支持這些選擇。在大多數情況下,這些工具還不夠複雜,無法在沒有任何人工幹預的情況下做出招聘決策。把這些工具看作是在作出招聘決定時提供有用的協助,可能更為恰當。

在篩選和麵試過程中,人為偏見是一個眾所周知的問題。通過提供評估應用程序的標準化方法,自動化工具有可能減少這種人為偏見。然而,設計或實施得不好的工具——例如那些用有偏見的曆史數據集訓練的工具,或那些沒有充分考慮到殘疾人等受保護群體的需求的工具——有可能使現有偏見延續下去,並產生新的障礙。

引入自動化係統可能會導致對透明度、公平性和準確性的擔憂,因為考生不清楚自己是如何被評估的。在部署數據驅動工具時,確保遵守數據保護和平等法是保持信任和法律合規性的關鍵。

篩選階段: 麵試階段:
簡曆篩選和評估軟件 視頻篩選軟件,包括麵部、語音和情緒表達識別(這些工具風險非常高)
基於經驗的結構化問題評估 音頻轉錄
基於遊戲的評估,包括心理測試 轉錄材料的篩選與評價
基於任務的評估

案例研究:亞馬遜的招聘算法和性別偏見

據報道,2018年,亞馬遜在其內部招聘過程中使用了一種偏愛男性候選人的算法。他們的招聘算法是根據10年的曆史就業數據進行訓練的,大多數候選人都是男性。從這種模式中,算法“學會”以犧牲女性為代價來支持男性。

據路透社報道,該算法降低了那些就讀於女子大學的申請人,以及那些簡曆中包含“女子”一詞(如“女子運動隊”)的申請人的等級。在發現這種對女性的無意偏見後,亞馬遜停止了使用該算法。這一事件說明了算法偏差的更廣泛問題:當曆史數據被用於為未來決策提供信息時,排除模式可能會重複甚至加劇。

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G


B部分:負責地部署工具的指導

指導意見的執行情況

您對數據驅動工具的采購和使用應用的保證級別必須與所涉及的風險成比例。風險水平存在於一個範圍內;它以法律為指導,但基於你的專業判斷,這種指導應該在一定程度上與風險成正比。

您需要確保您知道組織中誰負責執行下麵列出的每一個步驟,以及誰對整個過程負有總體責任。這可能包括采購團隊、法律或合規團隊、數據保護官員和其他人員。可能是您在內部確定某人來提高技能,並讓他們全權負責確保遵守指導。

如果您覺得有任何問題或步驟沒有資格回答或采取,並且您沒有內部的專業知識來支持您,您應該尋求外部的專業知識來確保您的采購決策過程是穩健的。

購買工具前:
確定誰將全麵負責工具的購買和使用。
確定誰將負責指導中概述的流程中的每個步驟

1.評估:該工具在您的業務環境中是否有價值和有效?

1.1.在更廣泛的招聘過程中使用工具

設定一個清晰的願景,你希望通過使用這個工具達到什麼目的,以及它在整個招聘過程中的位置。這應該包括決定您是否希望該工具進行完全自動化的招聘決策,或者您是否打算使用該工具來支持招聘決策。如果是前者,則觸發特定的數據保護立法(英國GDPR第22條),需要作出額外的規定(見2.4)。

如果有策略地使用,一些工具也可能有助於標準化評估,並解決現有招聘過程中的任何偏見——例如,標準化第一輪考試的準入門檻。它們還可能拓寬人才渠道,幫助尋找具有特定技能的候選人,並降低運營成本。仔細考慮使用該工具的預期好處是什麼,以及如何將其納入到招聘流程中。

這些都是在開始采購工具之前必須進行的重要操作,以確保產品將滿足您的特定業務需求並提供物有所值。

購買工具前:

在開始采購之前,清楚地寫下你建議的用例,這應該包括:

自動化元素是否以及如何與手動步驟交互,並與更廣泛的流程集成。

獲取該工具的業務需求和目標是什麼(例如解決當前招聘實踐中的偏見;拓寬人才渠道;尋找具有特定技能的候選人;減少運營成本)。

在采購過程中,當決定該工具是否滿足您的規格時,使用這些信息來評估該工具。

1.2功能信息

如果一個工具或它的界麵沒有發揮預期的作用,使用該工具的好處將受到限製,它可能會不公平地阻礙申請人,或讓他們放棄。供應商應該能夠向您提供有關工具功能的信息,並在演示中向您介紹這些信息。

購買工具前:

從供應商那裏獲取有關工具背後的功能和流程的信息。要求演示工具,特別是如果該工具將對招聘過程中的決策產生重大影響,或者候選人將直接與該工具進行交互。你可以問的問題有:

  • 做了什麼測試來確保界麵對終端用戶是可訪問的和功能性的?
  • 他們計劃在該工具的未來版本中添加哪些附加特性或修改?
  • 他們能否詳細說明其他有效使用該工具的客戶的例子?
確保您在合同中內置了適當的技術支持,以便在出現任何技術問題時,可以選擇來自供應商的故障排除支持。
探索運行該工具的試點選項,以了解它是如何在您的組織環境中運行的。


2.數據驅動工具的關鍵注意事項

數據驅動的工具提供了使招聘過程更加透明和公平的機會。然而,它們並非沒有風險和法律要求;這些措施必須與現有的減少歧視、提高透明度和滿足法律要求的方法一起仔細考慮和處理。

2.1基礎科學的準確性和合法性

重要的是要了解工具自動化了哪些決策過程(如簡曆篩選、評估或麵試),並了解工具是如何做出決策的,以便判斷您的組織是否適應該技術做出的基本假設。例如,如果該工具使用基於遊戲的評估來評估候選人,那麼就要確保這些遊戲的基礎科學是合理的。

候選人的評估方法不應該基於任意的因素或人類行為的方麵。最重要的是,評估必須與工作所需的技能掛鉤。

在購買工具之前,檢查是否有明確的科學依據:

向供應商尋求有關給定決策過程背後的基礎科學的信息。

評估的是什麼,是否有明確的證據基礎?您可以要求供應商引用該工具所基於的科學研究。

要警惕任何不是基於高質量科學方法的評估方法,特別是聲稱可以從視頻采訪中推斷人類情緒的工具,因為有證據表明,這些方法存在很大的不準確性,並可能具有歧視性。

索取審計文件的副本,以便了解工具產生的結果(例如,推薦誰參加招聘)是否經過了評估,以確保這些結果的準確性。


2.2偏見和歧視

在數據驅動的工具中,偏見可能以兩種獨立但相關的方式出現,這兩種方式結合起來形成累積的偏見。

a)習得性偏見:數據驅動工具“學習”如何基於現有就業數據做出招聘決策。如果數據中存在偏見模式,那麼數據驅動的工具可能會重複這些模式,這可能導致不公平。

b)不準確:分析麵部、語音或聲音的工具對特定的人口統計群體可能不太準確,並因為對這些群體的效果不佳而引入歧視。研究表明,麵部識別技術對膚色較深的人,尤其是膚色較深的女性,準確率可能較低。分析聲音或音調方麵的工具,或將音頻轉錄為文本的工具,對於某些口音和說話方式可能不太準確。

好的供應商會測試他們的技術,例如:審計和驗證底層算法,以防止潛在的偏見。招聘人員在尋找這些工具時應該要求進行這些測試。然而,請注意,這種測試可能是在不同的國家進行的,如美國。重要的是要意識到人口統計和法律標準的差異,比如五分之四規則。

相關框架和原則

  • 2010年《平等法》禁止基於9個受保護特征(年齡、殘疾、變性、婚姻和民事伴侶關係、懷孕和生育、種族、宗教或信仰、性別和性取向)的歧視,這適用於數據驅動工具的使用。更多信息可在平等與人權委員會的網站

  • 直接歧視發生在當一個人受到比另一個人更差的待遇時,因為他們有——或被認為有——受保護的特征,或因為他們與具有受保護特征的人有聯係。例如,如果一個數據驅動的篩選工具根據記錄的性別對女性的排名低於男性。

  • 間接歧視發生在表麵上中立的做法、政策或規則使具有受保護特征的群體處於特別不利地位的情況下,除非有客觀理由。如果雇主/招聘人員能夠證明這是實現合法目標的適當手段,就會存在客觀理由。[首先必須清楚地確定合理的目標,然後考慮相稱性。合理的目標將逐案審查(可包括保護健康和安全、運行高效服務或經濟和業務需求)。相稱性要求在雇主目標的重要性和對雇員影響的嚴重性之間取得平衡。例如,如果一種工具隻根據候選人的帶薪工作年數來優先考慮他們,這很可能是年齡的代表(也可能對具有其他受保護特征的群體產生影響)。
  • 根據2010年《平等法》的《公共部門平等義務》,公共部門機構必須充分考慮到消除歧視的必要性。這可能包括運行他們自己的測試,以發現和減輕偏見——這仍然是所有組織的最佳實踐(詳情見下文“如何評估統計偏見”)。
  • 不歧視的責任在招聘人員或雇主身上,而不在供應商身上。

如何測試偏見

在購買工具前測試偏差:

從供應商那裏獲取信息:供應商可能會在他們自己的相關測試環境中測試工具。將此作為評估您是否使用該工具的基礎。

請注意,英國的人口可能不同,英國的法律標準可能沒有被使用。特別是,許多供應商使用與美國相關的“五分之四”規則(見上文)來確定允許的不利影響有多大。確定您的團隊是否對供應商的結果滿意,記住上下文可能不同。

尋找供應商工程和產品開發團隊的多樣性信息,包括他們團隊的組成。檢查團隊是否接受過無意識偏見的訓練。

索取審計文件的副本,檢查審計發生的頻率,以便了解工具產生的結果(例如,推薦誰參加招聘)是否經過了評估,以確保這些結果是非歧視性的。

為了獲得額外的保證級別,您可能希望委托對該工具進行獨立評估。

購買工具時:
如果分析(在下麵的方框中列出的方法)表明該工具產生了偏差,而您希望繼續進行采購,那麼您應該為該決定提供一個客觀的理由(實現合法目標的一種相稱的手段)。除非你能證明評估測試了所需的屬性,並且沒有其他方法來測試候選人的這些要求,否則不太可能達到這個標準。

使用工具前、中、後:

考慮自己運行偏見測試,在工具的試點和整個使用過程中:為了評估工具在實際招聘過程中產生的任何潛在偏見,考慮使用來自不同背景的候選人的現有應用程序運行係統測試。注意:

在獲得明確同意的情況下,英國數據保護法允許為測試公平性而收集和分析人口數據(見2.3)。

統計分析可能無法揭示所有形式的歧視。有關更多信息,請參見下麵的方框。

一個平等的影響評估可能是審議與歧視有關的重要問題的有用工具,強烈建議用於可能對決策產生重大影響的工具,特別是在涉及大量申請人的情況下。

五分之四規則

這條規則被用來證明在美國存在“不利影響”。當保護組的選擇率低於最高選擇率的⅘(80%)時,就會產生不利影響。在英國,這不是一種適用於法律的測試,在英國,可能還需要證明較小但持續程度的不利影響。

雖然這可能是有幫助的背景,但該標準在英格蘭和威爾士沒有同等的法律權重。一種工具在美國可能是合法的,但在英國可能會導致歧視。

積極的行動

《2010年平等法案》第159條允許雇主在招聘決定中對具有受保護特征的求職者給予比沒有受保護特征的求職者更有利的待遇,隻要他們同樣勝任該職位。

這種機製可以用來提高組織的多樣性,並彌補高級職位的代表性不足。

設定一個組織標杆

偏倚的統計檢驗

為了確保數據驅動工具是非歧視性的,建議進行統計測試。這種測試的目的是突出群體之間的差異,因此需要關注該工具,而不是指導對個人申請者的決策。

測試的工作原理是為您的組織設置一個基線,然後根據這個基線測試工具,以確保工具正常運行,或者提醒您任何問題。這種測試應該在試驗階段進行,並在整個工具的生命周期中進行監視(注意,這將需要可持續的內部資源)。

1.明確組織的基線:在引入數據驅動的工具之前,你應該為來自不同特征群體的申請者製定一個發展基線。[如果有足夠的數據可以得出有意義的結論,可以使用交叉分類,例如“亞洲女性”或“50歲以上的女性”。為了開始這個過程,您需要確定與您的上下文相關的特征的範圍(您可能會從9個受保護的特征中提取)。在製定基線時,你可以考慮的信息包括:

a.在你沒有使用該工具的前幾輪招聘中,申請人的進展情況。

b.如果無法獲得前幾輪招聘的數據,考慮確定基線的方法,例如在新一輪招聘上運行數據收集。

c.除了前幾輪招聘的基準外,你可能希望考慮一些因素,這些因素為消除招聘中的偏見設置了更高的門檻;如果你的組織在人口結構上不多元化,這一點就尤為重要。因素包括:

●你正在招聘的人群的人口統計(例如,倫敦的員工)。

●行業基線。

注意:您需要考慮哪些數據集是您可以訪問的,並相應地調整您的基線。

2.衡量該工具在新招聘環節的影響:在使用該工具時,進行相同的分析(篩選、麵試、offer),以了解相同受保護特征的趨勢。

3.評估:比較不同的人口統計群體在使用招聘工具時的進展情況。如果分析顯示出令人擔憂的趨勢,例如,現在進步的女性越來越少,那麼這應該提醒您新工具存在一個問題,需要進行評估,以確保沒有發生歧視。或者,如果分析顯示不同人口統計群體的結果相同,這就是該工具運行正常的證據。

如何檢查可訪問性

在購買工具時,檢查工具的可訪問性:

向供應商查詢資料:

招聘人員和雇主應該努力理解和預測這些工具對殘疾和老年人候選人的影響。由於殘疾種類繁多,供應商可能沒有關於工具對殘疾人的影響的量化信息或統計數據(見下麵關於與代表性群體參與的方框)。

使用工具前:

進行分析,並與代表殘疾人和老年人利益的團體直接接觸。這可能包括與工會平等官員進行討論。

可能很難收集到足夠的關於可達性的數據進行有效的統計分析,因此與代表殘疾人或老年人利益的團體討論該工具可能會更深入地了解潛在風險。

在使用工具期間和之後:
合理的調整和備選方案:準備好為候選人提供合理的調整或備選的評估程序。如果提供替代流程,請確保該流程與數據驅動方法一樣健壯,並且對使用替代流程的候選人不存在偏見。清晰透明地解釋合理的調整。
測試影響:一旦工具在使用中,監視它在實踐中的影響。在數據驅動和可選流程中,從可訪問性的角度為個人的經驗創建一個反饋渠道。
反思結果:請注意,引入需要人們要求調整的工具可能會帶來不公平,因為有殘疾的候選人可能不願意宣布他們的殘疾,因為他們害怕恥辱或不利,或者可能沒有足夠了解係統,以了解它是否將他們置於不利地位,從而需要調整。考慮一下這是否適用於你的工作環境(或與你的客戶接觸了解)。

可訪問性

  • 數據驅動的工具可能會給殘疾考生帶來可訪問性問題,這可能會導致非法歧視。如果一個工具是不可訪問的或功能使它難以使用,這也可能造成歧視。解決工具的可訪問性與確保它們不會做出有偏見的決定同樣重要。例如:
  • 有視覺障礙的人可能無法獲得基於遊戲的評估;
  • 使用語音到文本的轉錄或其他音頻處理的基於麵談的評估可能對有某些語言障礙的人來說是無法實現的。
  • 如果老年人在工作中沒有廣泛使用過科技,他們可能很難使用在線招聘工具。

相關框架和原則

  • 2010年《平等法》禁止基於殘疾和年齡的歧視。
  • 有責任對殘疾人做出合理的調整,這意味著使用招聘工具的組織需要確保殘疾人不會處於不合理的不利地位。例如,如果有語言障礙的人在基於視頻的評估中得分較低,那麼就有責任對該工具進行合理調整。
  • 除非有客觀的理由,否則招聘人員或雇主不應使用使老年人處於不利地位的工具。

2.3數據保護

數據驅動的招聘工具很可能需要個人數據,因此涉及數據保護法。此外,如上文歧視一節所述,為了監測雇用製度對受保護群體的影響,雇主(或供應商)將有必要收集和分析候選人的受保護特征數據,如果有適當的保障措施,這是合法的。

相關框架和原則

  • 通用數據保護製度由英國通用數據保護條例(UK GDPR)覆蓋,並由2018年數據保護法(DPA)調整。信息專員辦公室(ICO)負責監管英國的數據保護,並為解釋法律和良好實踐提供實際指導網上。
  • 根據英國數據保護法,您必須有處理個人數據的合法基礎。遵守數據保護法規的法律責任落在數據控製者身上。誰是控製器可能取決於設置,但重要的是要與供應商確認他們打算如何使用和處理候選數據,以保持公平性、隱私性,並確保在整個管道中遵守數據保護法。在大多數情況下,招聘人員可能是數據控製者,而供應商將是處理器,因為招聘人員將決定數據處理的目的和處理方法(控製器指示處理器將如何使用和處理數據)。如果供應商也使用雇主的數據來訓練他們的算法,他們也將成為一個控製者,因為他們正在確定處理方法,因此獲得相關的責任。
  • 收集用於多樣性監測的數據:這些數據很可能是“特殊類別數據”,因為它特別敏感,因此需要額外的保護。[確定第6條下的合法基礎和第9條下的英國GDPR處理條件]。實際上,這意味著必須得到申請人的明確同意,除非是出於重大公眾利益的原因而必須進行處理,並符合《發展促進條例》附表1(8)所列的機會平等或待遇條件。您可能希望采取措施,在作為更大的同意請求的一部分尋求此類處理的同意時,突出顯示此收集和處理。哈裏發國有一本指南數據保護與人工智能

如何檢查是否符合數據保護法

使用工具前,請先檢查是否符合數據保護法:
在采購合同簽署之前,就數據控製者的角色(供應商或招聘人員或兩者)達成一致——控製者將負責遵守並證明符合英國GDPR。
與供應商澄清候選人的數據將如何使用,以及你有合法的依據收集他們的數據。

確保供應商的做法符合英國GDPR要求,特別注意適用於特殊類別數據的指導。這包括:

了解候選人的數據在未來將如何被使用。例如,如果它被用來訓練供應商的模型,在與該工具交互之前,將需要候選人的同意。

你可以考慮是否可以適當使用數據最小化(隻收集與你的目的有關的個人數據)、去識別技術(刪除識別數據)和加強隱私技術。數據收集應該是充分的、相關的,並且限製在必要的範圍內。看到ICO匿名操作規範

確保為任何數據存儲建立了健壯的流程,並建立了刪除數據的機製。

完成數據保護影響評估(dbia)——您可能需要與供應商一起完成這項工作。盡早開始dppa是明智的,可以在早期階段評估和減輕數據保護風險,並始終保持更新。dppa必須在任何“可能導致高風險”的處理之前進行。更多關於進行DPIAs的信息可以在ICO網站

最好是發布dbia,以便申請人和工作人員能夠訪問它。

您也可以考慮完成平等影響評估(見2.2.),同時完成或與dppa結合。

在收集受保護特征數據進行公平性和公平性監測時,確保:

候選人會得到適當的通知,清楚地說明數據將如何使用,並可選擇是否退出;而且

這些數據不會意外地“泄露”到決策過程中;它被用圍欄隔開。

關鍵術語

個人資料是與已識別或可識別的個人有關的信息-這可以是一個簡單的名稱或數字,也可以包括其他標識符,如IP地址或cookie標識符。

特殊的類別資料屬敏感資料,需要多加保護-特別類別資料包括顯示種族或民族出身的個人資料;政治觀點;宗教或哲學信仰,以及有關健康、個人性生活和性取向等方麵的數據。[英國GDPR第9條]。


2.4透明度和正當程序

如何在這個過程中建立透明度

在使用工具之前,在過程中建立透明度:

了解工具是否僅僅基於自動化處理做出決策(是否適用第22條):很好地理解數據驅動係統如何在內部(在您的組織內)工作,決策的基礎是什麼,以及人工監督的水平。

如果此規定確實適用,請確保您有合法的依據,並為人工幹預、個人表達其觀點以及在需要時進行人工審查提供路徑。

采取適當措施確保履行GDPR職責,包括進行數據保護影響評估(dbia)。檢查供應商是否也進行了工具的dppa是一個很好的實踐。更多關於履行第22條職責的信息,請瀏覽ICO網站

在使用工具期間和之後:

不管過程是否完全自動化,良好的實踐包括以下許多步驟,例如:

解釋使用了一個自動化工具,並創建一個明確的申訴流程,包括一個人工幹預和審查的聯絡點。

準備好解釋構成數據驅動決策的因素,並提供來自供應商的關於該過程的文檔。

考慮提供一種非自動化的工具來替代人工審查。在可行的情況下,運行兩個係統檢查的應用程序的蘸樣,以確保等價。

清晰而有意義地向應聘者傳達成功的大致標準和決策基礎。確保空缺人員在必要時做好溝通決定的準備。

相關框架和原則

在數據保護法中,關於在決策過程中使用人工智能(以及更廣泛地使用候選數據),有關於透明度的法律要求必須遵守。此外,求職者和招聘人員都可能對招聘過程的“非人性化”感到緊張:清晰的溝通和透明可能有助於緩解這些擔憂(下文“建立信任”一節將進一步探討)。

相關框架和原則

  • 透明度是英國數據保護製度的核心部分,有幾項與透明度相關的規定應該在所有招聘實踐中遵守。在使用人工智能時,第22條可能特別相關。
  • 英國GDPR第22條要求在招聘決定完全基於“自動處理”的情況下采取適當的保障措施[就第22條而言,招聘決定屬於具有法律或類似重大影響的決定。更多信息在資訊專員公署網頁]。理解這個規定是否在您的用例中被觸發,必須與評估部分中的考慮聯係起來:工具的目的是提供完全自動化的決策,還是提供決策支持?如果是前者,則適用第22條。看到ICO對AI和英國GDPR的指導

  • 第一,禁止完全基於自動化處理的征聘決定,除非該決定是與申請人簽訂或履行合同所必需的,或基於申請人明確同意的。
    • 同意:在招聘和雇傭的情況下,同意在多大程度上可以被依賴是有限製的,因為同意必須是“自願給予的”,但由於求職者和潛在雇主之間的權力不平衡,可能並非如此。
    • 合同:招聘過程中所作的決定可被認為是“訂立或履行合同所必需的”,為使決定完全自動化提供了法律基礎。例如,如果一個組織收到了數千份申請一個職位的申請,使得流程實際上很難依賴人工審查員,那麼依賴這個異常可能是合適的。
  • 然而,依賴這種合同基礎是有限製的。例如,如果有一種處理候選數據的侵入性較低的方式來提供相同的服務,那麼你就不能依靠這種合法的基礎來使用AI處理數據。
  • 第二,在觸發第22條的情況下,必須采取適當措施保護申請人,其中至少包括接受人工幹預、表達其觀點和對任何自動決策提出異議的權利。此外,必須提供有關所涉及邏輯的有意義的信息,以及這種處理對候選人的意義和預期的後果。

3.建立信任和有效溝通

當在招聘中使用數據驅動的工具時,職位空缺者可能很難理解為什麼要做出決定,也很難與候選人溝通這個過程。與傳統的招聘流程類似,數據驅動係統可能會使用空缺人員或候選人不知道的因素。就如何使用數據驅動工具進行有效和積極的溝通,可以提高對這些係統和使用這些工具的組織的信任。

即使在實踐中,數據驅動的工具比傳統方法更加標準化和經過測試,但技術工具可以引起公眾對公平、透明度和隱私以及如何駕馭在線係統的信任擔憂。

使用工具前:
與你的客戶討論這些問題:如果你是一家招聘機構,向客戶提出上述風險和緩解措施。
在決定是否采用工具時,與代表邊緣化個人的團體協商。例如,與多元化和包容性網絡、工會代表或感興趣的員工組織挑戰小組。
如果您是REC成員,請確保工具符合REC操作規範

在應用時:
用通俗易懂的語言向應試者傳達係統運作的相關方麵,解釋他們如何為成功做準備。
如果應聘者遇到技術問題,請為他們提供聯係方式:當工具正在對申請人做出決定時,確保應聘者能夠獲得聯係方式的詳細信息,以防自動化係統無法正常工作。
提供一個申訴機製,由一個人來審查所做的決定。

遵循決策過程:
解釋有關候選人的決定是如何向他們做出的。

建立渠道,征求候選人和空缺職位對他們的經驗的反饋。

你也可以考慮建立糾正製度,允許候選人質疑決定(見上麵的透明度和正當程序)。

在使用工具期間和之後:

您可以考慮發布關於工具使用的文檔,以主動溝通工具的目的、風險緩解措施並建立信任。這可能包括:

本係列中的其他指南

Baidu
map