[PML 5] C1S4 个性化技术的道德和后果

2022-02-25  本文已影响0人  数科每日

随着个性化机器学习的广泛使用, 一些关于其负面作作用的讨论也多了起来。 其中一些负面观点已经比较被广泛讨论, 比如信息茧房(filter bubbles)。当讨论个性化技术的道德和后果的时候, 我们遇到的问题包括:

随着对这些问题的认识不断提高,一系列旨在缓解这些问题的技术也出现了。这些技术借鉴了更广泛的公平和无偏见机器学习领域的思想,其中学习算法经过调整,以便不传播(或不加剧)训练数据中的偏见,尽管公平的目标并不是总是相同。多样化技术可用于确保预测或建议在相关性与新颖性多样性或偶然性之间取得平衡;相关技术旨在通过确保预测输出在类别、特征或推荐项目的分布方面保持平衡,从而更好地“校准”个性化机器学习系统(第 10.3 节)。此类技术可以通过确保模型输出不会高度集中在几个项目上来减轻信息茧房,并且更定性地可以增加模型输出的整体新颖性或“趣味性”。其他技术更直接地遵循公平和无偏见的机器学习,确保个性化模型的性能不会因属于代表性不足的群体或具有特定偏好的用户而降低(第 10.7 节)。

上一篇 下一篇

猜你喜欢

热点阅读