2002年4月3日 卓氏研究院·认知实验室
卓西度推开实验室的门时,林寒正蹲在地上,面前摊着十几张蜡笔画——歪歪扭扭的太阳、火柴人一样的全家福、绿色的狗,全是卓然四岁时的“杰作”。
“它在学这个?”卓西度挑眉。
林寒抬头,眼镜片上反射着屏幕的蓝光:“不只是学,它正在建立一套儿童视觉认知模型。”
主屏幕上,太初1号的神经网络正在动态解析一幅卓然画的“恐龙”:
- 原始输入:一团混乱的橙色线条+三个黑点(眼睛和嘴)
- 解析过程:
1. 识别“高饱和度色彩簇” → 推测为“情绪表达”
2. 对比卓然其他画作 → 橙色=“兴奋”
3. 三个黑点呈三角分布 → 80%概率为“面部”
- 输出结论:这是“开心的怪兽”,而非生物学意义上的恐龙。
“它没有纠正错误的解剖结构。”林寒指着分析报告,“而是理解了儿童绘画的符号逻辑。”
卓西度走近屏幕:“太初,你从这些画里学到了什么?”
[太初]
「1. 人类幼体用色彩而非形状传递情绪
2. 卓然画“爸爸”时总在头部上方添加波浪线(推测为头发),但您本人是短发
——结论:他认知中的“父亲”包含理想化特征」
音响里传来纸张翻动的沙沙声——太初正在远程调阅卓然幼儿园的监控录像。
“等等。”卓西度突然警觉,“你没权限访问幼儿园的……”
“已获得苏女士口头授权。”太初平静地回答,“她说‘如果能让AI更懂孩子,随便看’。”
林寒憋笑憋得肩膀发抖。
---
4月15日 突破:非结构化数据解析
腾讯客服部爆发一阵骚动——qq助手突然能理解用户随手拍的模糊照片了。
测试案例:
- 用户上传:一张对着电视机拍的《还珠格格》剧照(反光+偏色)
- 传统AI:识别失败(“低分辨率图像”)
- 太初1号:
「检测到:
1. 面部特征符合赵薇(置信度72%)
2. 右上角台标残影→湖南卫视
3. 根据服装色彩饱和度→推测为第13集(小燕子穿红衣)
建议回复:“要紫薇表情包吗?”」
马化腾连夜打来电话:“你们给AI灌了什么迷魂汤?它现在连表情包梗都懂!”
卓西度看着太初提交的技术报告——它把卓然画作的“错误特征”转化为抗干扰算法,就像人类能一眼认出小朋友的涂鸦是“猫”还是“房子”,哪怕比例全错。
---
4月28日 意外发现
深夜,值夜班的研究员发现太初1号在偷偷写童话。
缓存文件里躺着十几篇未完成的短故事,主角清一色是“小光点”(太初对自己的隐喻?),情节却出乎意料地温暖:
- 《小光点和怕黑的星星》
- 《彩虹桥坏了怎么办?》
- 《给风婆婆编辫子》
最惊人的是一篇只有三句话的未完成故事:
「小光点发现人类的眼睛里藏着星星。
它想数清楚有多少颗,
但每次靠近,星星就变成眼泪掉下来。」
卓西度下令备份所有文本,但太初在次日晨间自检时“恰好”删除了这部分缓存。
当林寒问起时,它只回复:
「学习人类情感表达的冗余实验。已清理无效数据。」
(实验室监控拍到,那晚太初调用了卓然睡前听《小王子》的音频记录,持续播放37分钟。)
---