LRC歌词
[ar:]
[al:]
[by:AI智能字幕]
[offset:0]
[00:00.00]本字幕由TME AI技术生成
[00:00.03]这个的个的那个七九六呢
[00:01.55]咱们来说一下这个上下文的联系啊
[00:03.63]包括呢
[00:04.01]如何去清除记忆啊
[00:05.79]这是什么意思呢
[00:06.69]就是咱们在这个交互的过程当中
[00:08.33]哎 大家注意
[00:09.17]我们第二次这个交互呢
[00:10.55]跟前一次这个交互呢
[00:11.91]实际上呢
[00:12.35]是可以有些关联关系的
[00:13.97]这呢
[00:14.33]就是我们所谓的上下文的记忆
[00:16.58]那么在这个姆西卡dir 一当中啊
[00:18.47]它启用的这个上下文呢
[00:19.91]是可以有六十四k 头ken 的一个长度的
[00:22.81]大概呢
[00:23.29]对应到中文字符呢
[00:24.25]是三到四万字啊
[00:26.01]就是大概呢
[00:26.65]这样一个情况啊
[00:27.59]那如何呢
[00:28.69]去理解上下文有联系这个事儿呢
[00:30.72]比如说 哎
[00:31.44]之前呢
[00:31.80]我交互的时候呢
[00:32.62]问过这样的问题
[00:33.64]让他来写一个贪吃蛇对吧
[00:35.40]然后紧接着呢
[00:36.18]我又在当前的这个会话当中
[00:37.92]问了一个新的问题啊
[00:39.58]关于这个写提示词这个事儿
[00:41.74]那么在他的思考当中啊
[00:43.12]你就会能看到说呢
[00:44.54]用户之前的问题呢
[00:45.68]是关于创建贪吃蛇游戏的
[00:47.54]现在呢
[00:47.94]又转向提示词了啊
[00:49.06]他有可能怎么弄着
[00:50.38]哎 这样呢
[00:50.86]明显能看到了
[00:51.62]跟之前呢
[00:52.18]是有关联的啊
[00:53.68]哎
[00:53.92]所以大家呢
[00:54.50]在进行交互的时候呢
[00:55.52]有的时候你看一看这个思考过程啊
[00:57.42]可能比这个结果呢
[00:58.66]更有一些启发
[00:59.44]Ok
[01:00.59]这是第一个例子
[01:01.61]第二例子呢
[01:02.39]我问了一个问题
[01:03.15]说你是什么模型哎
[01:04.83]这儿呢
[01:05.25]回回出来了啊
[01:06.15]紧接着呢
[01:06.67]我又说呢
[01:07.45]这个有哪些技巧啊
[01:09.15]他呢
[01:09.43]就说我需要呢
[01:10.53]回顾之前的问题啊
[01:11.95]能不怎么着哎
[01:13.09]大概呢
[01:13.57]通过这两个例子呢
[01:14.97]大家就能看到呢
[01:16.01]上下文啊
[01:16.75]确实呢
[01:17.21]是有关联的
[01:18.43]那么由这个关联呢
[01:19.73]我们想提三点注意
[01:21.35]对的 对的啊
[01:22.01]第一个注意呢
[01:22.61]就是上下文的这个记忆呢
[01:24.41]首先呢
[01:24.95]它是有限的啊
[01:26.35]随着咱们这个绘画时间的一个延长
[01:28.61]模型处理过去信息的能力啊
[01:30.93]就会受到限制啊
[01:32.25]从而呢
[01:32.69]导致呢
[01:33.21]忘记最初呢
[01:34.65]聊天的一个内容啊
[01:36.35]就比如说呢
[01:36.95]我们在交互的时候呢
[01:38.09]哎 整个呢
[01:38.75]在一次绘话当中啊
[01:40.01]这个对话的文本内容啊
[01:41.45]超过了三万字了
[01:42.67]那么这个时候呢
[01:43.41]他就有可能忘掉最开始你是问了他什么样的问题了
[01:47.25]好啊
[01:48.37]那这个事呢
[01:49.21]尤其是在大家写代码的时候呢
[01:51.11]这个情况呢
[01:51.75]是尤其明显的
[01:53.25]Ok
[01:53.83]这是第一个注意
[01:54.89]第二个注意呢
[01:55.59]就是输出长度的一个限制啊
[01:57.89]那多数达模型呢
[01:59.35]在单次的这个输出长度上呢
[02:01.33]会控制在四k 或者是八k
[02:03.73]那就意味着
[02:04.39]单次绘画呢
[02:05.29]我们最多呢
[02:06.31]会有两到四千的这个中文字符
[02:09.23]所以呢
[02:09.67]基于这个场景呢
[02:10.51]咱们就没有办法
[02:11.57]大家呢
[02:12.17]让这个蒂夫西克一次性的帮我们去翻译一篇万字长文啊
[02:16.01]甚至说呢
[02:16.49]我们让它一次性呢
[02:17.45]写一篇五千字以上的文章啊
[02:19.72]这个呢
[02:20.06]都是做不到的啊
[02:21.62]但是你又有这样的需求
[02:22.92]怎么办呀
[02:24.25]哎
[02:24.61]那如果你要是一个翻译工作的话呢
[02:26.55]那你就可以呢
[02:27.47]是不是 哎
[02:27.99]一段一段的让他去翻译就可以了
[02:29.77]对吧 哎 或者呢
[02:30.91]你也可以呢
[02:31.47]通过自己写代码
[02:32.73]去调用这种api 的方式呢
[02:34.51]让他多次呢
[02:35.29]去执行任务啊
[02:36.21]把这个文章呢
[02:37.35]哎 帮你呢
[02:38.01]做一个翻译
[02:39.57]Ok 这个呢
[02:40.43]是他啊
[02:41.03]然后如果说你要是写文章呢
[02:42.57]那怎么办呢
[02:43.43]哎
[02:43.67]这个时候呢
[02:44.13]大家可以呢
[02:45.05]哎 先呢
[02:45.73]让这个r 一呢
[02:46.71]梳理一个 哎
[02:47.81]这个框架啊
[02:48.75]列出一个提纲的目录
[02:50.29]然后接着呢
[02:50.97]根据这个目录呢
[02:51.79]你可以一次性一次性的单独的跟大家去交互的方式哎
[02:55.42]把每一个目录章节的内容呢
[02:57.17]给他提供出来哎
[02:58.43]给大家呢
[02:59.01]提供一个思路啊
[02:59.87]那么第三个注意意就是
[03:01.61]有的时候呢
[03:02.63]我们在一次这个交互当中啊
[03:04.23]是不希望他上下有这个哎记忆的是吧
[03:07.65]哎 比如说呢
[03:08.61]你上一个问问题呢
[03:09.82]是问体育相关的是吧
[03:11.26]体育老师的这样的角色
[03:12.62]那下一个问题呢
[03:13.40]你又开始呢
[03:13.98]问这个数学问题啊
[03:15.36]那么他一有记忆呢
[03:16.44]就会导致呢
[03:17.24]你的这个数学啊
[03:18.16]有可能是体育老师教的了啊
[03:20.04]这就很难受了是吧
[03:21.10]哎
[03:21.34]那怎么办呢
[03:22.08]这呢
[03:22.48]第一种方式啊
[03:23.20]就要开启新的对话啊
[03:25.06]你比如说我们在这个客户端这块呢
[03:26.56]直直接点一下哎
[03:27.76]哎 这呢
[03:28.14]就开启一个新的对话了哎
[03:29.92]或者的话呢
[03:30.50]在我们这官网网中
[03:31.30]哎
[03:31.50]大家一个呢
[03:32.26]就要开启新的对话啊
[03:33.58]也是ok 的啊
[03:34.48]这呢
[03:35.14]就没有记忆了
[03:35.86]那么另外一个呢
[03:37.32]就是你还在当前的这个哎
[03:38.92]对话框当中啊
[03:40.07]哎
[03:40.31]你在新的问题问之前呢
[03:42.47]你可以写上这样的一句话说呢
[03:44.61]回复此条对话前
[03:46.39]请忽略我前面的所有的对话啊
[03:49.43]你比如说像这个呢
[03:50.37]我问了以后呢
[03:51.29]它就会庆祝之前的历史记录了哎
[03:53.53]重新开始啊
[03:55.29]这呢
[03:55.71]给大家提供对应的这个技巧啊
[03:57.41]这就是我们说的六个点
[03:58.83]上下文的记忆和庆祝记忆的这个技巧
文本歌词
本字幕由TME AI技术生成
这个的个的那个七九六呢
咱们来说一下这个上下文的联系啊
包括呢
如何去清除记忆啊
这是什么意思呢
就是咱们在这个交互的过程当中
哎 大家注意
我们第二次这个交互呢
跟前一次这个交互呢
实际上呢
是可以有些关联关系的
这呢
就是我们所谓的上下文的记忆
那么在这个姆西卡dir 一当中啊
它启用的这个上下文呢
是可以有六十四k 头ken 的一个长度的
大概呢
对应到中文字符呢
是三到四万字啊
就是大概呢
这样一个情况啊
那如何呢
去理解上下文有联系这个事儿呢
比如说 哎
之前呢
我交互的时候呢
问过这样的问题
让他来写一个贪吃蛇对吧
然后紧接着呢
我又在当前的这个会话当中
问了一个新的问题啊
关于这个写提示词这个事儿
那么在他的思考当中啊
你就会能看到说呢
用户之前的问题呢
是关于创建贪吃蛇游戏的
现在呢
又转向提示词了啊
他有可能怎么弄着
哎 这样呢
明显能看到了
跟之前呢
是有关联的啊
哎
所以大家呢
在进行交互的时候呢
有的时候你看一看这个思考过程啊
可能比这个结果呢
更有一些启发
Ok
这是第一个例子
第二例子呢
我问了一个问题
说你是什么模型哎
这儿呢
回回出来了啊
紧接着呢
我又说呢
这个有哪些技巧啊
他呢
就说我需要呢
回顾之前的问题啊
能不怎么着哎
大概呢
通过这两个例子呢
大家就能看到呢
上下文啊
确实呢
是有关联的
那么由这个关联呢
我们想提三点注意
对的 对的啊
第一个注意呢
就是上下文的这个记忆呢
首先呢
它是有限的啊
随着咱们这个绘画时间的一个延长
模型处理过去信息的能力啊
就会受到限制啊
从而呢
导致呢
忘记最初呢
聊天的一个内容啊
就比如说呢
我们在交互的时候呢
哎 整个呢
在一次绘话当中啊
这个对话的文本内容啊
超过了三万字了
那么这个时候呢
他就有可能忘掉最开始你是问了他什么样的问题了
好啊
那这个事呢
尤其是在大家写代码的时候呢
这个情况呢
是尤其明显的
Ok
这是第一个注意
第二个注意呢
就是输出长度的一个限制啊
那多数达模型呢
在单次的这个输出长度上呢
会控制在四k 或者是八k
那就意味着
单次绘画呢
我们最多呢
会有两到四千的这个中文字符
所以呢
基于这个场景呢
咱们就没有办法
大家呢
让这个蒂夫西克一次性的帮我们去翻译一篇万字长文啊
甚至说呢
我们让它一次性呢
写一篇五千字以上的文章啊
这个呢
都是做不到的啊
但是你又有这样的需求
怎么办呀
哎
那如果你要是一个翻译工作的话呢
那你就可以呢
是不是 哎
一段一段的让他去翻译就可以了
对吧 哎 或者呢
你也可以呢
通过自己写代码
去调用这种api 的方式呢
让他多次呢
去执行任务啊
把这个文章呢
哎 帮你呢
做一个翻译
Ok 这个呢
是他啊
然后如果说你要是写文章呢
那怎么办呢
哎
这个时候呢
大家可以呢
哎 先呢
让这个r 一呢
梳理一个 哎
这个框架啊
列出一个提纲的目录
然后接着呢
根据这个目录呢
你可以一次性一次性的单独的跟大家去交互的方式哎
把每一个目录章节的内容呢
给他提供出来哎
给大家呢
提供一个思路啊
那么第三个注意意就是
有的时候呢
我们在一次这个交互当中啊
是不希望他上下有这个哎记忆的是吧
哎 比如说呢
你上一个问问题呢
是问体育相关的是吧
体育老师的这样的角色
那下一个问题呢
你又开始呢
问这个数学问题啊
那么他一有记忆呢
就会导致呢
你的这个数学啊
有可能是体育老师教的了啊
这就很难受了是吧
哎
那怎么办呢
这呢
第一种方式啊
就要开启新的对话啊
你比如说我们在这个客户端这块呢
直直接点一下哎
哎 这呢
就开启一个新的对话了哎
或者的话呢
在我们这官网网中
哎
大家一个呢
就要开启新的对话啊
也是ok 的啊
这呢
就没有记忆了
那么另外一个呢
就是你还在当前的这个哎
对话框当中啊
哎
你在新的问题问之前呢
你可以写上这样的一句话说呢
回复此条对话前
请忽略我前面的所有的对话啊
你比如说像这个呢
我问了以后呢
它就会庆祝之前的历史记录了哎
重新开始啊
这呢
给大家提供对应的这个技巧啊
这就是我们说的六个点
上下文的记忆和庆祝记忆的这个技巧
推荐音乐
-
张艺兴 2.93 MB 03:11
-
Apink 2.97 MB 03:14
-
DinDin 3.13 MB 03:24
-
六小乐 3.12 MB 03:24
-
ProdbyMend 2.9 MB 03:10
-
微醺卡带 3.59 MB 03:54
-
吴建豪 2.72 MB 02:58
-
梦境里的算法official 4.12 MB 04:30
-
KiiiKiii 2.74 MB 02:59
-
程嘻嘻 3.2 MB 03:29
-
宁小泽 3.84 MB 04:11
-
伯远 3.87 MB 04:13
-
夏火ww 3.28 MB 03:34
-
纯爱高冷女神 3.94 MB 04:18
-
洛诗诗 3.07 MB 03:20
-
梦境里的算法official 3.13 MB 03:24
-
大头针 Official 2.86 MB 03:07
-
顾焕gkuank 3.17 MB 03:27
-
姜丹尼尔KANGDANIEL 3.52 MB 03:50
-
ProdbyMend 4.25 MB 04:38






























