目录:
定义-可解释人工智能(XAI)是什么意思?
可解释的人工智能(XAI)是AI设计以及整个技术社区的关键术语。 它指的是确保人工智能程序的目的和工作方式透明的努力。 可解释的AI是工程师和其他尝试随着人工智能进步而前进的人的共同目标。
可解释的人工智能也称为透明人工智能。
Techopedia解释了可解释人工智能(XAI)
可解释的AI背后的想法是AI程序和技术不应成为人们无法理解的“黑匣子模型”。 专家说,人工智能程序常常牺牲透明度和可解释性来获得复杂的实验结果。 强大的算法可能会产生有用的结果,而无需实际显示它们如何得出这些结果。
可解释的人工智能也是将伦理学应用于AI的关键部分。 正如埃隆·马斯克(Elon Musk)之类的技术领导者所指出的那样,人工智能最终可能会产生正面或负面的净结果,这取决于人类如何使用人工智能以及人类如何构建人工智能。
可解释的AI有助于追求道德AI,因为它展示了机器如何执行计算工作以及可能存在问题的地方。
