去年夏天,我在杭州西湖边散步,看着夕阳西下,水波粼粼。那时候,我有个朋友在做AI项目,提到参数表征模型,我随口问了句:“这模型是干什么的呀?”他笑了笑,说:“简单说,就像给图像、语音这些数据穿上一件‘衣服’,方便它们被计算机理解和处理。”
等等,我还记得当时他给我举了个例子:比如,一张图片,模型会从中提取出颜色、形状、纹理等特征,然后“表征”成一组数字。这些数字,就像是图片的DNA,方便后续的识别、分类等工作。
我突然想到,这不就像我们拍照留念,把记忆定格成一幅幅图像吗?只是,我们的“拍照”是大脑的神经元在活动,而AI的“拍照”是用代码实现的。
那么,参数表征模型,究竟在多大程度上能够模拟人脑的认知过程呢?它又能在哪些场景下发挥最大效用呢?
2023年,北京,参数表征模型,准确率提升10%。但数据清洗花了我们一个月,坑太大。