加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

RADStudio代码辅助AI的选择建议

(2025-06-24 09:38:13)
标签:

ai

deepseek

delphi

ollama

分类: RAD_Studio

       RAD Studio12.3版本的Smart CodeInsight代码辅助功能中,我们可以通过配置Ollama本地大模型框架,来运行自己喜欢的开源AI大模型。并且最新版还支持配置多模型运行,并在配置的Model中,支持选择希望运行的大模型。

       下面我们就来仔细的说一下。由于之前的Ollama中,我们配置Deepseek最火热的R1版本模型,而该模型是通用大模型,也就是它面向的各种问题,而不限于编程代码相关的问题。你问它各种社会问题,它也会回答自如,这是因为这个大模型的训练数据是各种知识,它的知识库也是最新的,更新最频繁的。另外,该模型的一个特色是标签,也就是它会将思考过程也同步输出。我们在RAD Studio中使用该模型时候,就会发现输出内容太多,而且很多对于编码是没有帮助的。这大大影响了编码的效率。

       为了解决上面的问题,我个人推荐采用Deepseek-coder模型或更新的Deepseek-coder-V2版本的模型。该模型是专门为编码辅助训练的,支持大多数编程语言。它们的输出内容更加贴近AI代码辅助的情况,没有标签的输出,直接就是干货。目前V2版本模型是最新的,占用资源较多,16B参数的,我这边运行至少要占用10.5GB显存才可以,速度也是很感人的。而Deepseek-coder模型有稍小参数的6.7B的版本,通常的8GB显存可以运行测试起来。当然了,企业内部真实部署需要自行测算需要的计算资源,选择适合当前硬件的更大参数的版本,例如236B的,大模型的答案也能更精确和快速。

       安装Ollama后,执行命令也和之前的一样,直接运行ollama run deepseek-coder-v2命令,就会自动下载并运行最新的16B参数版本。然后在RAD Studio中配置好使用AI的模型就可以了。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有