加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

语言-认知-学习

(2023-06-17 19:55:58)
标签:

杂谈

分类: 雜感

语言-认知-学习

语言-认知-学习

GPTGenerative Pre-trained Transformer)大模型的重要基础,它让文字训练变得更容易,使量变到质变成可能。ChatGPT中的T”即Transformer的缩写。(江涵丰)

https://www.livescierice.com/20718.computer.history.htmt(下图)

注:1、https协议 2、www.oivescience.com主机名称 3、20718-comuter.history.html 资源名称 4、/路径分隔符 5、www网站服务器

语言-认知-学习

 

叁、logseq(构建第二大脑开源核心软件),它提供快捷书写Query的功能,在任意一个块键入/Query就可以创建一简单的查询,如:1、{{Query(and[[比喻]][[孤独]]}}:本语句可查询出同时打有“#比喻”和“#孤独”两个标签的块。(涂子沛)

上述举例,些许对人脑-电脑-AI协同作用的学习,有所裨益。(2023/06/17老邓)

0

阅读 收藏 喜欢 打印举报/Report
前一篇:“交通大脑”
后一篇:回眸与巡礼
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有