如题,看效果还挺好玩的,有裸眼 3D 的效果。 如果用来搞涩涩会不会有市场~ 我个人的理解是用 AI 分离了前景和背景,然后背景填充一下,然后动的时候前景和背景的 角度幅度差 产生的 3D 效果。
![]() | 1 Rubbly 11 天前 ![]() 大概有这核心的几步? 1. 主体检测,确定好焦点(旋转中心)要在哪里 2. 深度识别 Depth Estimation ,对每个 object ,包括背景确定好景深 3. 空间适配,大概就是转一下手机,会根据深度 depth 来提供不同的 offset 偏移量,比如说离焦点越远的点,转动手机带来的偏移量会更大。 里面最重要的深度识别 ,苹果一直有在 follow 各种开源库,比如这个 https://github.com/DepthAnything/Depth-Anything-V2 ,能看到很快就集成到了 Apple Core Models 里面 |
2 EVANGELIONAir 11 天前 很简单啊,语义分割分离前景背景,然后前景放大一点,陀螺仪控制前景与背景偏移方向相反就行 |
3 zanbo 10 天前 ![]() @EVANGELIONAir 仔细看不止前景和背景,根据景深分了很多层,不同层的图片转动手机的时候还有形变 |
![]() | 4 ItzhacLea 10 天前 高斯泼溅 |
5 okakuyang 10 天前 类似高斯泼溅的技术,不是简单的图层分隔。核心点除了高斯泼溅之外,还有发丝级别的深度推测,apple 放出了桌面版本,但是没有放出移动版本。 |