总结/朱季谦
趁着这周末空闲时间,在研读完OpenAi官网文档的基础上,及时总结了这篇**《ChatGPT API接口编程基础与使用技巧》**。
本文大部分telegram最新官方中文的下载地方内容是围绕编程方面,包括ChatGPT模型接口、图像生成接口、敏感数据拦截等,只有一小部分内容围绕如何通过temperature调参优化使用提示技巧。
OpenAi开放了一系telegram最新官网中文下载的入口列模型接口API,包括ChatGPT、图像生成、音频、文件、敏感数据拦截等。
若要集成这些模型接口调用到我们开发的系统里,可以通过多种编程语言的HTTP请求与openai API交互。目前OpenAi API支持多种编程语言调用,各类编程语言对应的接口调用库都能在OpenAi官网找到官方推荐的开源库。
我在本文里主要介绍Java、Go、Python、Node.js这四种,其余具体依赖方式和使用,感兴趣的童鞋可自行去官网进一步研究。1.1、Java
官方推荐的是Theo Kanning开源的openai-java 。我用来集成到SpringBoot项目的依赖库,正好也是用了这款openai-java。
1.1.1、首先,需要在Maven引入以下依赖——
1.1.2、安装完成后,可以参考以下的代码案例,通过绑定密钥来调用chatGPT模型——
需要注意的是,若是部署在有"魔法代理"的Linux云服务商,代码需要相应做一下调整,否则是无法访问到ChatGPT的,只会出现以下异常提示:
当日我在这个问题上就踩了一个坑。
解决的办法很简单,只需要做以下调整——1.2、Go
官方推荐的是sashabaranov开源的go-gpt3 中文版的telegram的下载的网址哪里有 。
1.2.1、需要先安装以下依赖包——
1.2.2、该开源项目提供的参考案例如下——1.3、Python
先下载Python版本的open库——
安装完成后,可以参考以下的代码案例,通过绑定密钥来调用chatGPT模型——1.4、Node
先下载Node版本的openai库——
安装完成后,可以参考以下的代码案例,通过绑定密钥来调用chatGPT模型——
OpenAi API是需要使用API密钥进行认证访问。密钥获取方式,需要登录
接着点击【Create new secret key】生成一个新的密钥,需要注意一点是,该密钥生成时就得保存下来,否则过后是无法再进行查看的,例如,我的密钥库里先前已有一条密钥,但现在无法再去确定这条密钥是什么了。telegram中文版的最新下载入口是多少
顺便提一点是,chatGPT是有免费额度的,调用API会消耗掉这些额度,我们可以在点击左边菜单【Usage】查看——
官网的最新版的telegram下载的网址
在调用OpenAi的API请求时,需要在HTTP请求报头中包含该API密钥,例如——
官方提供了一个curl通过密钥调用API的请求案例,需要将案例里的$OPENAI_API_KEY替换为自己的API密钥,在开启了代理的服务器上运行,可以基于该案例测试服务器是否能正常调用到ChatGPT——
我在自己的服务器上运行了,返回结果如下——
这个请求表示,查询gpt-3.5-turbo模型完成文本处理,提示语为"这是一个测试请求!",响应结果如下——
Request body各字段说明——
首先得提一下2023年4月11日网信发布的一份《生成式人工智能服务管理办法(征求意见稿)》,里面第四条明确表示,生成式人工智能算法或服务应当遵守法律法规的要求,尊重社会公德、公序良俗。这就意味着,未来在使用这类Ai接口进行输入/输出时,必须针对内容进行违规内容信息的过滤。
其实OpenAi有针对这块内容审核提供了开放的API接口,可以免费使用。
若想在聊天API的输出中添加一个敏捷信息拦截层,就可以在输入/输出信息时,调用该接口。例如,存在这样一份API接口调用案例——
响应返回内容如下——
categories和category_scores具体字段值对应的说明如下表格所示——
官方表示目前该审核接口仍在不断努力提高分类器的准确性,特别是仇恨、自残和暴力等内容的分类。值得注意一点是,对非英语语言的支持目前是有限的,也就是说,中文的审核支持比较有限。
除了使用OpenAi提供的输入/输出信息审核接口,还可以开发敏感词过滤系统,将传给ChatGPT以及响应返回的数据,进行敏感词过滤。4.1、模型列表
OpenAi提供了多种模型,可以通过执行以下查询指令,查询出API支持的模型类型——
出现出来的结果如下,应该有数十个模型,我用的最多是gpt-3.5-turbo,这是目前比较标准的型号版本——4.2、查询指定GPT模型详情
可以基于以上模型类表接口,查询出具体模型实例的详情,包括模型的基本信息、所有者及权限等——
查询出gpt-3.5-turbo的模型详情如下——
GPT-3.5模型可以理解和生成自然语言或代码,在GPT-3.5版本当中,最有能力和最具成本收益的模型是GPT-3.5-turbo,它是基于原有的3.5版本模型进行的迭代优化,可以更好地完成传统任务。目前最新模型是GPT-4,具有更先进的常识和推理能力,但还没有开放免费API接口。
以下是GPT-3.5模型列表介绍——
官方推荐使用GPT-3.5-turbo而不是其他GPT-3.5模型,因为它的成本更低。gpt-3.5-turbo的性能与text-davinci-003相似,但每个token的价格是它的10%,官方推荐在大多数情况下使用gpt-3.5-turbo。
给定一个提示和/或一个输入图像,模型会生成一个新的图像,例如,我想让它画一只胖猫——
然后,它确实给我画了两张图——
通过图url链接,可以查看图片,若是在代码里,可以直接丢给<img 官方最新中文版的telegram下载的地方是什么 src=https://cloud.tencent.com/developer/article/"">里显示出图片。不过,我让openai给我画的是一只胖猫,图一我还能理解,但是,图二,这个猫屁股着实有些离谱了(自带🐶)……
体验下来,感觉与midjourney还是有较大区别的,只能说,勉强能用吧。
图像生成接口参数如下——
6.1、调整temperature参数
我在前文调用API的参数当中,有提及一个temperature参数,翻译过来叫温度。该参数用于指定生成文本时的随机性和多样性,默认值为1,介于 0 和 2 之间,较高的温度值值(如 0.8)会导致GPT输出内容更随机,而较低的温度值(如 0.2)会使其更加可以预测和具备确定性。
打一个比喻,ChatGPT中的温度值就演员演戏——
较低的温度值可以看作是“按照剧本表演”,演员是什么水平,就演出什么样子。温度值低生成的文本比较保守和确定,适合需要准确性和连贯性的任务,比如内容摘要、机器翻译等。
较高的温度值可以看成“即兴表演”,生成的文本可能更加随机和多样性,当然,也可能更加糟糕,这种情况比较适合用来创作和探索性任务,比如生成对话、创意写作等。
当然,这个temperature参数并非万能的,在某些文本内容当中,可能几乎感受不到太多差别。
若温度值设置为0,那么,模型将总会返回相同或非常相似的内容,当温度高于0时,每次提交相同的提示会导致生成不同内容。官方表示,温度值在0~1之间,基本上可以控制模型生成比较满意的答案。
例如,当用户询问“如何形容一只胖猫?”时,聊天机器人可能会生成以下不同的回答:
在提问当中,使用这个参数的方法很简单,只需要在提示语后面跟上“Use a temperature of 0.5”即可——
6.2、传递给API的数据是否会被存储
用户比较关心一个问题是,我们传给ChatGPT的数据是否会被存储。官方表示,自2023年3月1日起,将保留您的API数据30天,但不再使用通过API发送的数据来改进模型。这就意味着,请勿传输涉及个人隐私或者安全相关的信息,避免数据泄漏。