第31篇:从API到应用——调用OpenAI等接口,开发你的AI小工具(操作教程)

张开发
2026/4/20 8:20:44 15 分钟阅读

分享文章

第31篇:从API到应用——调用OpenAI等接口,开发你的AI小工具(操作教程)
文章目录前言环境准备分步操作第一步安全地管理你的API密钥第二步编写你的第一个API调用第三步构建文章总结小工具第四步增加实用功能——从文件读取和保存结果完整代码与使用踩坑提示总结前言在AI浪潮里滚了几年我发现一个很有意思的现象很多朋友对ChatGPT、Midjourney这些AI应用背后的技术既好奇又觉得高深莫测。他们觉得开发一个AI工具得是顶尖算法工程师才能干的事。其实不然现在各大AI厂商都提供了成熟易用的API接口我们完全可以把它们当作“乐高积木”快速搭建出属于自己的AI应用。今天我就以调用OpenAI的API为例带你从零开始亲手开发一个能帮你总结长文章的AI小工具。这个过程就像你学会了用一个功能强大的“瑞士军刀”很多创意就能落地了。环境准备工欲善其事必先利其器。在开始敲代码之前我们需要准备好三样东西一个可用的API密钥这是你调用AI服务的“通行证”。以OpenAI为例你需要去其官网注册账号并在后台生成一个API Key。切记这个Key要像保护密码一样保护起来绝对不能提交到公开的代码仓库如GitHub。我早期就犯过这个低级错误导致密钥泄露产生了不必要的费用。Python环境这是我们的主要开发语言。建议使用Python 3.7及以上版本。如果你还没安装可以去Python官网下载。必要的Python库我们将主要使用openai这个官方库来调用接口用python-dotenv来安全地管理我们的API密钥。在终端或命令行中执行以下命令安装pipinstallopenai python-dotenv分步操作第一步安全地管理你的API密钥在项目根目录下创建一个名为.env的文件。这个文件用来存放你的敏感信息并且通常会被.gitignore文件忽略避免误上传。在.env文件中写入OPENAI_API_KEY你的真实API密钥然后在Python代码中我们通过python-dotenv来安全地读取它。第二步编写你的第一个API调用创建一个Python文件比如叫ai_summarizer.py。让我们先写一个最简单的调用测试一下连接是否通畅。# ai_summarizer.pyimportosfromopenaiimportOpenAIfromdotenvimportload_dotenv# 1. 加载 .env 文件中的环境变量load_dotenv()# 2. 初始化OpenAI客户端它会自动从环境变量OPENAI_API_KEY中读取密钥clientOpenAI(api_keyos.getenv(OPENAI_API_KEY))# 3. 定义我们要提问的内容prompt_text用一句话解释什么是人工智能。# 4. 调用Chat Completions APItry:responseclient.chat.completions.create(modelgpt-3.5-turbo,# 指定模型也可以用 gpt-4 等messages[{role:user,content:prompt_text}],max_tokens100,# 限制回复的最大长度temperature0.7,# 控制回复的随机性0-2之间越高越随机)# 5. 打印AI的回复answerresponse.choices[0].message.contentprint(AI的回答,answer)exceptExceptionase:print(f调用API时出错{e})运行这个脚本如果一切顺利你会看到AI对你问题的回答。恭喜你你已经成功叩开了AI应用开发的大门第三步构建文章总结小工具现在我们来升级代码实现核心功能输入一篇长文章输出总结。这里的关键在于设计一个有效的提示词Prompt。好的Prompt能极大地提升AI回复的质量。对于总结任务我们可以这样设计# ai_summarizer.py (功能升级版)importosfromopenaiimportOpenAIfromdotenvimportload_dotenv load_dotenv()clientOpenAI(api_keyos.getenv(OPENAI_API_KEY))defsummarize_article(article_text): 总结长文章的函数 :param article_text: 输入的文章文本 :return: 总结后的文本 # 精心设计的Prompt明确指示AI的角色和任务system_prompt你是一个专业的文本总结助手。你的任务是将用户提供的长文章提炼出核心观点生成一段简洁、连贯的摘要。摘要应保留原文的关键信息和逻辑。try:responseclient.chat.completions.create(modelgpt-3.5-turbo,messages[{role:system,content:system_prompt},# 系统指令设定AI角色{role:user,content:f请总结以下文章\n\n{article_text}}],max_tokens300,# 总结可以稍长一些temperature0.3,# 总结任务需要更高的确定性温度设低一点)summaryresponse.choices[0].message.contentreturnsummaryexceptExceptionase:returnf总结生成失败{e}# 示例使用一篇模拟的长文章进行测试if__name____main__:# 这里用一段模拟文本实际应用中可以从文件、网页或数据库读取long_article 人工智能AI是计算机科学的一个分支旨在创造能够执行通常需要人类智能的任务的机器。 这些任务包括学习、推理、问题解决、感知和语言理解。AI的发展经历了多次浪潮从早期的符号主义AI到现在的深度学习。 深度学习通过模拟人脑的神经网络结构利用大量数据进行训练在图像识别、自然语言处理等领域取得了突破性进展。 例如GPT系列模型能够生成流畅的文本而卷积神经网络CNN在图像分类上超越了人类水平。 AI技术正在深刻改变各行各业从自动驾驶到医疗诊断从金融风控到个性化推荐。 然而AI也带来了伦理和社会挑战如就业替代、算法偏见和隐私问题。未来AI的发展需要技术创新与伦理规范并重。 print( 原始文章 )print(long_article)print(\n AI 生成摘要 )resultsummarize_article(long_article)print(result)运行这段代码AI就会为你生成一段精炼的摘要。你可以尝试更换long_article的内容看看效果。第四步增加实用功能——从文件读取和保存结果一个真正可用的工具应该能处理外部文件。我们来增加从.txt文件读取文章并把总结保存到新文件的功能。# ai_summarizer.py (完整文件版)importosfromopenaiimportOpenAIfromdotenvimportload_dotenv load_dotenv()clientOpenAI(api_keyos.getenv(OPENAI_API_KEY))defsummarize_article(article_text):system_prompt你是一个专业的文本总结助手。你的任务是将用户提供的长文章提炼出核心观点生成一段简洁、连贯的摘要。摘要应保留原文的关键信息和逻辑。try:responseclient.chat.completions.create(modelgpt-3.5-turbo,messages[{role:system,content:system_prompt},{role:user,content:f请总结以下文章\n\n{article_text}}],max_tokens300,temperature0.3,)returnresponse.choices[0].message.contentexceptExceptionase:returnf总结生成失败{e}defsummarize_file(input_file_path,output_file_pathNone): 总结文本文件中的内容 :param input_file_path: 输入文件路径.txt :param output_file_path: 输出文件路径默认为输入文件同目录下的‘summary_原文件名.txt’ # 1. 读取文件内容try:withopen(input_file_path,r,encodingutf-8)asf:article_textf.read()exceptFileNotFoundError:print(f错误找不到文件{input_file_path})returnexceptExceptionase:print(f读取文件时出错{e})return# 2. 调用总结函数print(正在生成摘要请稍候...)summarysummarize_article(article_text)# 3. 处理输出路径ifoutput_file_pathisNone:base_nameos.path.basename(input_file_path)name_without_extos.path.splitext(base_name)[0]output_file_pathfsummary_{name_without_ext}.txt# 4. 保存结果到文件try:withopen(output_file_path,w,encodingutf-8)asf:f.write(f# 文章摘要\n\n)f.write(f**原文文件**{input_file_path}\n\n)f.write(f**生成摘要**\n{summary})print(f摘要已成功保存至{output_file_path})print(f\n--- 摘要内容预览 ---\n{summary[:200]}...)# 预览前200个字符exceptExceptionase:print(f保存结果文件时出错{e})# 使用示例if__name____main__:# 假设你的项目目录下有一个 ‘article.txt’ 的文件input_filearticle.txt# 检查文件是否存在ifos.path.exists(input_file):summarize_file(input_file)else:print(f示例文件{input_file}不存在。)print(请创建一个 ‘article.txt’ 文件并在其中放入你想要总结的长文本。)# 或者直接使用一个在线文章的URL用requests库抓取内容这里不展开完整代码与使用将上述第四步的代码保存为ai_summarizer.py在相同目录下创建.env文件存放你的API密钥再准备一个article.txt文件放入长文章。在终端运行python ai_summarizer.py稍等片刻你就会在目录下看到一个名为summary_article.txt的新文件里面就是AI为你生成的摘要了。踩坑提示费用与速率限制OpenAI API是按使用量Token数收费的并且有每分钟的调用次数限制。在开发测试阶段注意控制调用频率避免意外产生高额账单。可以在OpenAI后台设置使用量上限。网络问题由于API服务器通常在海外国内直接调用可能会超时或失败。一个常见的解决方案是使用一个可靠的代理。这不是本文重点但你需要知道这个可能性。Token超长模型有上下文长度限制例如gpt-3.5-turbo通常是4096个token。如果你的文章太长需要先进行切分再分段总结最后再合并。这是一个进阶话题。Prompt工程AI的输出质量极度依赖你的Prompt。如果结果不理想不要急着怪模型多调整你的指令。比如加上“用中文输出”、“分点论述”、“不超过150字”等具体约束。总结通过这个简单的教程我们完成了一个从API密钥申请、环境搭建到核心功能开发、文件交互的完整流程。你看开发一个AI小工具并没有想象中那么难核心就是“会调用API 懂点Prompt技巧 基本的编程能力”。这个文章总结器只是一个起点。你可以基于这个框架轻松地改造成其他工具改改Prompt它就变成了翻译器。接入Whisper API加上音频处理它就变成了会议纪要生成器。结合爬虫定时抓取新闻它就变成了每日资讯简报自动生成器。AI的API就是这样一个强大的杠杆能极大放大你的个人能力。希望这篇教程能帮你撬动第一块砖快去试试把你的想法变成现实吧如有问题欢迎评论区交流持续更新中…

更多文章