-
-
2怎么区分意义上的架构和情景上的架构?
-
1请问如果要从网络爬取数据制作用户自定义字典的话,这个字典应该要做成怎样的形式啊?哈希表么?
-
190以前提到催眠术中的一些心理咨询的方法,但非常的笼统。随着大家对催眠的了解以及NLP的普及,终于可以就一些具体的催眠治疗手法对大家介绍一下,以期使各位对催眠治疗和NLP有更深的了解。 我们不能人为控制自己的温度,自己的内分泌,自己神经传导的方向速度,我们运动时我们没有办法控制我们的肌肉运动状态和耗氧量。但有一种智慧在控制着这些。我们不知道它是怎么做的,但它能保证我们上班走路开小差时,不会撞到人。能保
-
90在我们每个人的行为之后都有一些操控因素,例如抱持的信念、提问的问题、使用的引喻、参考的心范和看重的价值。 如果你了解这些因素对人类的影响,就可以在很短的时间内找出使人改变的有效方法。 神探福尔摩斯就是仔细搜索每个人独特行为的蛛丝马迹,然后再象拼图般找出是那些因素在操控他的行为,最后找出疑犯。 人类的一切行为都受控于主宰系统,这就好像物理或化学都遵守某些定律一样,这个主宰系统是由五部分所组成,我们每个
-
61nlp层级是什么?
-
6r记忆和c结构分别是什么意思?
-
48各路大神,请问NLP的数字化听觉是怎么判断的?
-
17有兄弟们能交流下怎样去寻找思考在身体里运作的吗
-
70我想问问,NLP的次感元是怎么判断的?按百度百科里次感元的程序来研究吗?
-
34经常有人向我问起:“我是一个刚接触NLP的人,我该如何学习NLP?”等类似的问题,也就成了这篇文章的缘起。 学习NLP,最快的方式当然是上课了。 系统
-
232
-
174在NLP里面,有两种比较典型的理论流派,就是结构派和系统派;这两种流派各有各的特色,也各有各的优势、劣势;但是,流传到中国后,有一些NLP导师夸大某一种NLP流派的作用、优势,而贬低另一个流派,这是不利于NLP在中国的传播和健康发展的;因此,我特地撰写此文,以便让广大NLP爱好者客观地认知两种NLP流派的本质和关系,并更好地受益于NLP。 一、何谓结构派NLP? 结构派NLP乃是由两位NLP创始人——理查•班德勒、约翰•格瑞德所发展的原始N
-
101检定语言模式是理查德·班德勒和约翰·葛林德在研究的特定语言技巧。 他们发现一套极为有效的发问技巧,从受导者口中取得大量有用的讯息,同时又有一套回应技巧,使得受导者重组他的内心世界,因而在思想、心态及行为上有所改变。 检定语言模式便是由此发展而来。
-
36新人想学nlp该怎么学起,或者该怎么学看什么书?
-
69检定语言模式怎么运用到实际
-
26案例1:运用NLP掌控情绪 #NLP“贴标签法” #NLP“不在同一个平面法” 案例2:运用NLP激发动力 #NLP“七彩动力卡法” 案例3:应用NLP调整失眠 #NLP“核
-
3NLP的系统派和结构牌有没有可能会整合成一个整体,相互辅佐,因为在很多细节上并不冲突
-
85跳转地址:自然语言处理吧 https://tieba.baidu.com/f?kw=%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%8 请吧主置顶,谢谢!
-
1各位nlp大佬,我想问一下词袋模型BoW和BPE编码各自的优缺点
-
0有无小伙伴在参赛的(track5赛道)可以一起交流一下
-
771972年,理查•班德勒在加州大学圣克鲁斯分校计算机系学习期间,理查•班德勒受雇于学校出版社,做勤工俭学活动,负责帮助出版社把弗烈兹•皮耳士(完型疗法创始人,1970年去世)的录音带整理成文字,最后制作成书籍出版。在此过程中,理查•班德勒发现了完型疗法的神奇作用,他运用弗烈兹•皮耳士的操作手法,对其他同学实施心理治疗,结果获得了非常惊人的效果。于是他在加州大学成立了完形疗法学习小组,很多学生都去跟随他学习。
-
2841970年代,美国加州大学圣克鲁斯分校(University of California at Santa Cruz)有两位极富活力和创造力的年轻人——理查•班德勒(Richard Bandler)和约翰x2022;格瑞德(John Grinder),当时,理查•班德勒是加州大学计算机系的学生,而约翰x2022;葛瑞德则是加州大学语言学教授。因缘际会,他们二人因为不满于传统心理治疗的冗长与低效,而临床心理界却有极为卓越的心理治疗大师。为了弄清他们是如何成就卓越的,两位天才开始深入研究当时北美的四位
-
58吧里的各位大佬,我写了几条前提假设,麻烦大佬们可以指导一下。
-
0
-
17老师,我一紧张就紧张,我可以学nlp吗
-
26哪位有nlp治疗失眠的电子书
-
63上堆下切平行聊天法是什么意思,怎么用
-
61就是对面的人抬起了左手,那我们是不是也要挪动一下我们的左手呢?不会了 求解谢谢
-
1被疫情折磨得动荡不安的2022年终于结束了,疫情也逐渐稳定了,希望2023年能够恢复正常的生活。祝大家在新的一年健康如意,心想事成!
-
12长话短说,上周openai 放出了最新的语言模型ChatGPT,只要注册了都能用,然后周末就有人hack出了api,正好我就接入了一下,大概花了一个小时,写了40行代码,就构建出了一个文字RPG游戏: https://github.com/bupticybee/ChineseAiDungeonChatGPT 不过这不是重点,重点是,我自己玩了一下,才发现chatGPT的讲故事能力有多强,下面是我自己玩开发的一个 chatgpt 的应用的文字 rpg 的 gameplay: > 你搞 点武器 你走了好久,终于看到了一座破旧的城堡。你打开了城堡的大门
-
3诸位大大们好! 手写李沐老师的多头注意力代码时认为有个地方有问题。 就是假如valid_len充当遮蔽指定张量的时候,多头注意力会将输入张量的特征维度分成几份,这样的话不是会破坏valid_len指定数值的意义么?很容易指定出错,现举例如下: 假设输入张量X(batch_size,num_stpes,num_hiddens)形状是(2,3,6)的;valid_len(batch_size,num_steps)形状是(2,3)的,具体为[[4, 3, 4],[3, 6, 6]],代表比如batch_size=1的三个时间步下,第一个时间步前4个值为有效值将会被通过masked-softmax
-
1有想交流的留下脚印,我组个群
-
0上海这边有个做元宇宙基础设施的公司 不知道有没有大佬感兴趣
-
0想了解关于nlp的知识,因为在一些学到nlp的人身上收获了很多,想找书读读,希望有人推荐。
-
0如题 有的话一起交流 一起组队啊 虽然快结束了 目前没有很好的方法
-
6
-
4有没有大佬帮忙跑一下BERT模型
-
2基于transformer的文本生成。我的模型好像摆烂了,无论输什么话,它都回答同一个答案,比如“我也是”。这种该怎么调呀,难道是数据集太小了吗?
-
5
-
1
-
2目前方向语音合成,使用tacotron2来个人搞个tacotron2优化方案。