偶然间看到了关于c社和miku的ai声库的言论,遂有感而发
诚然,ai技术的创新与突破满足了很多人对虚拟歌姬的期望,但我依然认为std声库是虚拟歌姬中不可或缺的重要组分,ai声库对于std不应该是替代。并且,我始终认为“性能好”的定义不仅仅只是“接近人声”,而是“能够更轻易地达到使用者的预期效果”,这一点对于所有声库应该都是一样的,只不过现在的ai声库更加接近这个定义。因此,我很想知道,如果std声库继续深入发展下去,是否也可以做出性能极其优良(举个夸张点的例子,几乎不怎么需要人为调试就能达到很好的效果,甚至囊括自动混音之类的)并且又能最大程度保留std传统声库独有特色的声库?
当然我本人并不是技术党,甚至可以说是对声库制作的相关技术一窍不通,但我想看到一个ai声库和std声库齐头并进蓬勃发展的未来,即使这不太现实(现在还有公司愿意继续研究std声库吗……)
诚然,ai技术的创新与突破满足了很多人对虚拟歌姬的期望,但我依然认为std声库是虚拟歌姬中不可或缺的重要组分,ai声库对于std不应该是替代。并且,我始终认为“性能好”的定义不仅仅只是“接近人声”,而是“能够更轻易地达到使用者的预期效果”,这一点对于所有声库应该都是一样的,只不过现在的ai声库更加接近这个定义。因此,我很想知道,如果std声库继续深入发展下去,是否也可以做出性能极其优良(举个夸张点的例子,几乎不怎么需要人为调试就能达到很好的效果,甚至囊括自动混音之类的)并且又能最大程度保留std传统声库独有特色的声库?
当然我本人并不是技术党,甚至可以说是对声库制作的相关技术一窍不通,但我想看到一个ai声库和std声库齐头并进蓬勃发展的未来,即使这不太现实(现在还有公司愿意继续研究std声库吗……)