我相信不久之后,Facebook会通过机器学习了解什么类型的通知我愿意点击参与,什么类型的通知我倾向于忽略或忽视。这些数据将自动推送给我一条基于我的个人喜好而计算得到的个性化通知。比如说,如果算法注意到我经常忽略或忽视关于新城市的通知消息,未来Facebook的迭代可能会学着停止向我推送这些信息,相反会给我推送一些其它的通知。 但是这存在一定的道德风险。目前,假消息这种黑暗模式是相当地粗鲁,但至少它很容易识别。但是如果这种服务对消息选择和推送进行改进,那么这些基于我们个人网络行为和潜在便好的机器学习定制化的推送消息,用户可能很难识别出来。 这打开了操纵的大门,不仅针对人类,还有不知名的算法,这些算法最终会学会给我们每个人呈现我们想要看到的信息,甚至是和我们世界观一致的新故事。 作为用户,我们应该保持警惕,确保我们拥有挑战和被挑战的能力。作为设计师和研发人员,我们必须寻找开发经验,尊重用户及用户尊严,不要把用户当做贡献点击量的工具。 (责任编辑:admin) |