当AI面试官成为常态,求职者的尊严正被当成一种可丢弃的成本 | blog

当记者坐到屏幕前,准备接受一场工作面试时,对面出现的不是HR,而是一个AI虚拟形象。它提问,并实时分析你的回答、措辞甚至微表情。

开发这些工具的公司,如CodeSignal和Humanly,声称这是为了“效率”和“公平”,让每个申请者都有初步面试的机会,还能消除人类面试官的偏见。但这套说辞很快就被戳破了:一个由充满偏见的互联网数据训练出来的AI,如何保证绝对公平?

真正的要害,被一位开发者在网上的一句评论点破了:“一个在发薪水前就这样不把你当人看的雇主,入职后会怎么对你?”

这句评论获得了上千个赞。它精确地捕捉到了这场技术变革背后,那令人不安的真相:AI面试,与其说是一项评估工具,不如说是一个公司文化的强力信号。它在无声地筛选出那些愿意忍受非人化流程的候选人。

这场闹剧已经陷入了恶性循环。一位招聘经理抱怨,一个岗位收到上千份简历,其中大量是AI生成的“垃圾申请”。于是公司被迫用AI来筛选海量简历,甚至用AI来面试。而求职者为了应对这种非人的流程,也开始求助于AI来“代投”和“代聊”。双方的信任正在飞速崩盘,面试变成了一场机器人之间的荒诞戏剧。

所以,下一次当你收到一个AI面试邀请时,需要思考的问题可能不是“我该如何表现才能通过?”,而是“我真的想加入一个用机器来衡量人类价值的公司吗?”

这个问题,AI回答不了你。

最讽刺的是,公司正试图用AI来评估一个人的“人性化”特质,比如沟通能力和文化契合度。这本身就是个巨大的笑话,也是一个信号。这已经不是面试,而是服从性测试。一个愿意接受AI面试的人,可能也更容易接受未来工作中其他不合理的安排。
 
 
Back to Top