有人上午被裁員,下午其AI分身即在公司群開啟工作。近日,某些企業將離職員工數據“AI煉化”為“賽博員工”的現象,引發廣泛爭議。
“AI煉化”來自技術社區GitHub上的開源項目“同事.skill”。企業收集員工在工作期間留下的聊天記錄、文檔、郵件、截圖等資料,通過人工智能大模型分析提取,將提煉出的經驗封裝成標準化的Skill文件,生成可替代其工作的數字員工。“同事.skill”一經發佈便迅速爆火,還衍生出“老闆.skill”“前任.skill”等産品。技術狂飆之下,“AI煉化打工人”已從一個實驗室構想,迅速演進為擺在職場人面前的真實挑戰。
“AI煉化”的核心問題首先是侵犯個人數據權益與數字人格權。員工的聊天記錄、工作思路、溝通方式等,雖産生於職場,卻與個人人格、思維習慣深度綁定,屬於受法律保護的個人信息與人格利益。未經員工同意,企業擅自將其數據訓練為AI分身,本質是對個人數字身份的強制佔用,既違反《個人信息保護法》,也違背基本勞動倫理。離職原本意味著勞動關係終止,企業卻想將員工的知識經驗永久“數字化佔有”,使其淪為無償的“賽博牛馬”,這顯然是不合理的。
其次,“AI煉化”扭曲勞動價值,破壞職場公平。員工的專業能力、工作經驗是長期積累的人力資本,具有人身屬性。企業無償“煉化”並持續使用,相當於把勞動力剝削延伸至數字空間和離職之後,變相掠奪勞動者的智力成果。若放任這種模式,會加劇職場焦慮,讓員工擔心“教會AI餓死自己”,也會導致企業減少對在職員工的培養投入,損害整體勞動力市場秩序。
此外,“AI煉化”還帶來責任不清、知識産權混亂、數據安全等隱患。數字分身出錯、侵權時,責任難以界定;職務成果與個人知識邊界模糊,易引發知識産權糾紛;高度還原的數字分身,還有可能成為洩露商業秘密的新風險點。
但“AI煉化”並非全然不可用,關鍵在於合法、自願、有償。一是員工應完全知情並自願授權,明確數字分身的使用範圍、時限和用途;二是企業要支付相應版權或數據使用費,將員工的數字知識成果視為可交易的知識産權;三是允許個人主動“煉化”自身技能,以數字服務形式向企業或平臺提供勞動並獲取報酬,形成公平的數字勞務關係。
技術的可行性絕不等於倫理的正當性。只有建立在自願與等價有償基礎上,“AI煉化”才具備倫理正當性。治理當前“AI煉化”亂象,需要多方協同發力。
法律層面,應進一步明確數字人格權保護規則,細化員工數據用於AI訓練的授權標準,禁止未經許可的數字化“永久使用”,對侵權行為加大懲處力度。
監管層面,要加強對高風險AI職場應用的備案與審查,引導行業規範發展。
企業層面,必須堅守科技向善原則,開展倫理審查,堅持“最小必要”原則使用數據,杜絕無償掠奪式“煉化”,構建合理的利益分配機制。
勞動者層面,也要加強AI科普宣傳和普法教育,並設立公開的投訴救濟渠道,幫助勞動者提高數字權利意識,讓他們敢於拒絕不合理的數據授權條款。
技術進步不應成為漠視個人權益的藉口。“AI煉化”可以提升效率,但不能犧牲尊嚴;可以創新用工模式,但不能突破公平底線。只有在法律框架內明確權利邊界,在倫理約束下規範應用場景,讓數字勞動得到尊重與回報,人工智能才能真正成為賦能職場、造福社會的正向力量。
1、“國際在線”由中國國際廣播電臺主辦。經中國國際廣播電臺授權,國廣國際在線網絡(北京)有限公司獨家負責“國際在線”網站的市場經營。
2、凡本網註明“來源:國際在線”的所有信息內容,未經書面授權,任何單位及個人不得轉載、摘編、複製或利用其他方式使用。
3、“國際在線”自有版權信息(包括但不限于“國際在線專稿”、“國際在線消息”、“國際在線XX消息”“國際在線報道”“國際在線XX報道”等信息內容,但明確標注為第三方版權的內容除外)均由國廣國際在線網絡(北京)有限公司統一管理和銷售。
已取得國廣國際在線網絡(北京)有限公司使用授權的被授權人,應嚴格在授權範圍內使用,不得超範圍使用,使用時應註明“來源:國際在線”。違反上述聲明者,本網將追究其相關法律責任。
任何未與國廣國際在線網絡(北京)有限公司簽訂相關協議或未取得授權書的公司、媒體、網站和個人均無權銷售、使用“國際在線”網站的自有版權信息産品。否則,國廣國際在線網絡(北京)有限公司將採取法律手段維護合法權益,因此産生的損失及為此所花費的全部費用(包括但不限于律師費、訴訟費、差旅費、公證費等)全部由侵權方承擔。
4、凡本網註明“來源:XXX(非國際在線)”的作品,均轉載自其它媒體,轉載目的在於傳遞更多信息,豐富網絡文化,此類稿件並不代表本網贊同其觀點和對其真實性負責。
5、如因作品內容、版權和其他問題需要與本網聯繫的,請在該事由發生之日起30日內進行。