[AI]-(第1期):OpenAI-API调用
文章目录
- 一、OpenAI API中使用GPT-3.5-turbo模型
- 充值方式
- 使用模型
- 计费方式
- 价格说明
- 相关限制和条款
- 二、接入一个OpenAI API流程
- 1. 获取OpenAI API 密钥
- 2. 集成ChatGPT到小程序
- 3. 处理用户输入
- 4. 调用OpenAI API
- 5. 返回回复至小程序
- 6. 持续优化
- 7. Postman请求示例
- 三、通用AI客服机器人的开发流程
- 1. 定义业务需求和目标
- 2. 选择合适的技术平台
- 3. 收集和整理数据
- 4. 训练 AI 模型
- 5. 开发和测试
- 6. 集成到业务系统
- 7. 发布和推广
- 8. 持续改进和优化
- 参考
一、OpenAI API中使用GPT-3.5-turbo模型
充值方式
- OpenAI账户注册:首先需要在OpenAI官方网站注册一个账户。
- API密钥获取:注册后,你需要获取API密钥,用于调用OpenAI API。
- 充值账户:在OpenAI账户中,你可以选择充值你的账户,通常通过信用卡或其他在线支付方式进行支付。
使用模型
- 选择GPT-3.5-turbo模型:在调用OpenAI API时,你需要明确选择使用GPT-3.5-turbo模型。
- 指定引擎和模型:在API调用时,需要明确指定使用GPT-3.5-turbo模型,以及相应的引擎参数。
计费方式
- 按调用次数计费:OpenAI API的使用通常按照调用次数进行计费,即每次使用API调用都会产生费用。
- 按调用时长计费:有些情况下,OpenAI API的使用也可能按照调用时长进行计费,具体取决于API的使用情况和套餐。
价格说明
- 价格透明:OpenAI通常会提供清晰明确的价格列表,列出每种API调用的价格和费用。
- 费用预估:在使用API之前,你可以根据预估的调用量和频率,估算出相应的费用。
相关限制和条款
- 使用限制:OpenAI API的使用可能受到一些限制,例如每次调用的最大字符数、每月总调用量等。
- 使用条款:在使用OpenAI API之前,建议你仔细阅读相关的使用条款和服务协议,了解API的使用规则和限制。
需要注意的是,以上信息可能会根据OpenAI的政策和服务条款发生变化,建议你在使用API之前仔细阅读最新的价格和使用说明。
虽然你付费调用API(充值最少$5),但是还是会有一些限制,以GPT-3.5-turbo为例子:
MODEL TOKEN LIMITS REQUEST AND OTHER LIMITS BATCH QUEUE LIMITS gpt-3.5-turbo 40,000 TPM 3 RPM 200 RPD 200,000 TPD - TPM/TPD、RPM/TPD: 表示 tokens per minute or day(TPM/TPD)每分钟/每天的token数、 requests per minute or day (RPM/RPD)每分钟/每天的请求数
- MODEL (模型): gpt-3.5-turbo 表示制定了具体的模型
- TOKEN LIMITS(每个请求的最大token数限制) :“最大40,000 TPM” 意味着在使用 GPT-3.5-turbo 模型时,API可以在一分钟内处理的token数量最多为 40,000。这意味着你可以向模型发送多达 40,000 个token的文本,而API能够在一分钟内返回模型的回复。
- REQUEST AND OTHER LIMITS(请求和其他限制): 每分钟/每天请求次数限制:OpenAI API 可能会限制每个用户或每个API密钥在一分钟内可以发出的请求次数。如果超过了这个限制,可能会收到请求被拒绝的错误消息。
- BATCH QUEUE LIMITS(批量队列限制):每天对批量的队列请求的限制
二、接入一个OpenAI API流程
要在小程序中使用ChatGPT实现客服机器人,你可以按照以下步骤进行:
1. 获取OpenAI API 密钥
首先,你需要注册OpenAI账号并获取API密钥。然后,你可以使用这个密钥来调用OpenAI的文本生成API。
2. 集成ChatGPT到小程序
你可以通过HTTP请求或WebSocket等方式将小程序与OpenAI API连接起来。根据你的实际需求选择合适的集成方式。
3. 处理用户输入
在小程序中,你可以设置一个输入框,让用户输入问题或者需要咨询的内容。当用户发送消息后,将消息发送到你的服务器端进行处理。
4. 调用OpenAI API
在服务器端,接收到用户的消息后,你可以调用OpenAI的API来生成回复。将用户的消息作为输入,调用API后得到的文本作为回复。
5. 返回回复至小程序
将生成的回复文本发送回小程序,并在聊天界面显示给用户。
6. 持续优化
根据用户的反馈和使用情况,不断优化ChatGPT的模型和对话逻辑,提高机器人的智能程度和回复质量。
以下是一个简单的示例代码(假设你已经完成了小程序前端的开发,这里只展示后端服务器端的代码):
import openai from flask import Flask, request, jsonify # 设置OpenAI API密钥 openai.api_key = 'YOUR_OPENAI_API_KEY' app = Flask(__name__) @app.route('/chat', methods=['POST']) def chat(): user_input = request.json['message'] # 调用OpenAI API生成回复 response = openai.Completion.create( engine="text-davinci-003", prompt=user_input, max_tokens=150 ) bot_reply = response.choices[0].text.strip() return jsonify({'reply': bot_reply}) if __name__ == '__main__': app.run(debug=True)
7. Postman请求示例
postman请求 请求地址:http://127.0.0.1:5000/chat 方式:POST 请求头:Content-Type:application/json 数据:raw {"message":"hello,who are you ?"} --- curl -X POST -H "Content-Type: application/json" --data '{"message":"hello,who are you ?"}' http://127.0.0.1:5000/chat 返回结果核心内容:openai.error.RateLimitError: You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs:https://platform.openai.com/docs/guides/error-codes/api-errors. 报错是因为我的API没有Token额度了
在这个示例中,我们使用Flask作为后端框架,创建了一个简单的API接口 /chat,当收到POST请求时,调用OpenAI API生成回复,并返回给客户端。
你需要根据自己的实际需求和业务逻辑进行适当的调整和扩展。同时,要确保保护用户隐私和数据安全,遵循相关的法律法规和隐私政策。
三、通用AI客服机器人的开发流程
要开发一款适合自己业务的 AI 机器人,你可以按照以下步骤进行:
1. 定义业务需求和目标
首先,明确你的业务需求和目标。确定你的 AI 机器人的主要功能和用途,以及它应该解决的问题和提供的服务。
2. 选择合适的技术平台
根据你的业务需求和目标,选择合适的技术平台和工具来开发 AI 机器人。常见的技术平台包括 OpenAI、Google Dialogflow、Microsoft Bot Framework 等。
3. 收集和整理数据
准备好用于训练 AI 模型的数据。根据你的业务需求,收集和整理相关的文本数据、语料库、知识库等。数据的质量和数量对于 AI 模型的训练非常重要。
4. 训练 AI 模型
使用选择的技术平台和工具,利用准备好的数据来训练 AI 模型。根据你的业务需求和数据特点,选择合适的模型架构和训练算法进行训练。
5. 开发和测试
根据业务需求和训练好的模型,开发 AI 机器人的应用程序。编写代码实现机器人的功能,并进行测试和调试,确保机器人的稳定性和准确性。
6. 集成到业务系统
将开发好的 AI 机器人集成到你的业务系统中,让它可以与用户进行交互并提供服务。根据需要,在网站、应用程序、社交媒体等渠道上添加机器人的接入点。
7. 发布和推广
发布和推广你的 AI 机器人,让用户知道它的存在并开始使用。可以通过宣传、广告、推送消息等方式来推广机器人,并持续改进和优化机器人的功能和性能。
8. 持续改进和优化
根据用户反馈和使用情况,持续改进和优化你的 AI 机器人。收集用户反馈并进行分析,不断优化机器人的功能、对话流程和性能,以提升用户体验和满意度。
以上是一个通用的开发流程,你可以根据自己的业务情况和技术能力进行调整和扩展。如果你需要更详细的技术支持或定制化方案,建议你聘请专业的 AI 开发团队或咨询专家来协助实现。
参考
- openapi-api调用模型限额
- openai
- api-errors
- Prompt Engineering Guide