6
indexTTS能否放在服务器上运行并提供API接口方式呢?脚本是单独执行就启动模型 还是可以做成服务提供方式,提供多人请求,各位大佬怎么做的?
indexTTS能否放在服务器上运行并提供API接口方式呢?脚本是单独执行就启动模型 还是可以做成服务提供方式,提供多人请求,各位大佬怎么做的?
直接写个启动脚本+端口号配置就行
如果你运行的是官方的webui.py脚本的话,该脚本会监听localhost:7860端口。如果你将该脚本运行在服务器,那么在你远程访问服务器的时候进行端口转发就可以在本地访问运行在服务器上的webui了。具体操作是:
如果你运行的是官方的webui.py脚本的话,该脚本会监听localhost:7860端口。如果你将该脚本运行在服务器,那么在你远程访问服务器的时候进行端口转发就可以在本地访问运行在服务器上的webui了。具体操作是:
- ssh连接服务器: ssh -L 7860:localhost:7860 username@server 其中username是服务器上的用户名,server是服务器的ip地址。第一个7860是本地端口,你可以修改为你喜欢的未占用的本地端口,第二个7860是是服务器监听的端口,需要根据脚本所监听的端口进行设置。
- 在浏览器输入localhost:7860或者127.0.0.1:7860,就可以访问服务器上运行的webui脚本了。
- 如果你用的是自己写的脚本,监听你想要的端口,然后进行转发,就可以远程访问了。
就是自己写脚本然后转发就行了对吧,模型只用启动一次吧