现在gptel好像是把当前buffer里面光标前的内容全部丢给大模型。但我现在的应用场景一般是用gptel来做笔记补全(我写一部分,让gptel来帮我把后面的内容写完)。这样其实只需要参考上文一千个左右的字符就行了。
但是我找了一圈,没找到gptel截断上文长度的变量。
另外,有没有办法让gptel也能参考一点下文的内容?不然 gptel 老是把生成过的内容又重新生成一遍。
不过GPT是单向生成模型,后面这个应该只能用prompt解决?
现在gptel好像是把当前buffer里面光标前的内容全部丢给大模型。但我现在的应用场景一般是用gptel来做笔记补全(我写一部分,让gptel来帮我把后面的内容写完)。这样其实只需要参考上文一千个左右的字符就行了。
但是我找了一圈,没找到gptel截断上文长度的变量。
另外,有没有办法让gptel也能参考一点下文的内容?不然 gptel 老是把生成过的内容又重新生成一遍。
不过GPT是单向生成模型,后面这个应该只能用prompt解决?
你可以在选择了一个区域的情况下 gptel-add
手动截断应该比自动截断更有用