轻兔推荐

投稿 登录/注册
免费Claude 3.5 Sonnet logo

免费Claude 3.5 Sonnet

LightTools
2024-06-25
朋友们!我们整了个[真]免费使用Claude 3.5 Sonnet的站点!!!
- Claude 3.5 Sonnet是Anthropic 6月20最新出的目前最强的AI大语言模型
- 据说比gpt4o具有更强的推理能力,实际使用感受确实会更好一点

使用链接

界面简洁

image.png

Claude 3.5 Sonnet 性能对比

claude35sonnet.png

特点

  • 免费Claude 3.5 Sonnet
  • 打开即用
  • 完全免费
  • 无需魔法
  • 无需登录
  • 服务稳定
  • 界面简洁
  • 120次/天
[[list[42]?.like_count]]
[[list[42]?.comment_count]]
0
[[list[42]?.pv]]
463

共[[list[42]?.comment_count]]条评论

[[v.nickname]]
[[v.time_ago]]
[[v.like_count]]

[[v.content]]

[[v2.nickname]]
[[v2.time_ago]]
[[v2.like_count]]

[[v2.content]]

查看更多评论
AI工具分享 logo

AI工具分享

LightTools
2024-06-04
本站目前关于AI的推荐是比较少的,主要是现在的AI工具网站更新得太快了,眼花缭乱,不希望一上来就被AI霸屏
- 写篇汇总分享下我个人目前用得比较多的AI工具
- 我常用的有ChatGPT,llama3,deepseek,通义灵码,dify,uTools中的ChatGPT.好友,Groq

先给大家推荐的是我自己运营的一个GPT免费公益站: https://chatz.free2gpt.xyz

  • 完全免费,无需魔法,无需登录,120次/天。目前使用的是Meta最新开源的llama3-70b模型,如果你的任务要求不高,想要一个简洁明了打开即用的AI小工具不妨试试

官方ChatGPT https://chatgpt.com

  • 用得最多的一个了,OpenAI还是牛的,可惜国内不能直接访问,需要折腾网络

通义灵码 注册链接(含邀请码) VS Code扩展

  • 我感觉他的补全代码挺好用的,会根据打开的文件去找上下文,感觉能有80%的自动补全就是我想要的,能提高不少编程效率,不过对话的话感觉就相对一般,目前个人免费,还是挺香的

deepseek https://platform.deepseek.com

  • 很不错的国产开源模型,它的API接口很便宜,百万token1块多,可以作为主API服务集成到AI工具中

uTools(一个很好用的效率工具 https://u.tools)的一款插件 ChatGPT.好友

  • 我觉得是最好的AI客户端之一,它可以创建AI好友,不同好友完成不同的任务,每个好友都有丰富的配置,支持添加多个后端服务,AI好友支持绑定线路,配合uTools可以快捷把文本发送到AI好友中处理

dify https://cloud.dify.ai

  • dify是一个开源的大语言模型工作流开发平台,提供了大量的外部工具可供AI集成,支持各种AI后端服务,支持生成API接口,使用dify来快速构建AI工作流还是挺方便的

Groq https://console.groq.com

  • groq是一家AI推理芯片的创业公司,为了展示他们的推理速度快,他们提供了免费的API接口,可以免费用llama3-70b-8192模型

你常用的AI工具有哪些呢?欢迎评论补充

[[list[24]?.like_count]]
[[list[24]?.comment_count]]
2
[[list[24]?.pv]]
1322

共[[list[24]?.comment_count]]条评论

[[v.nickname]]
[[v.time_ago]]
[[v.like_count]]

[[v.content]]

[[v2.nickname]]
[[v2.time_ago]]
[[v2.like_count]]

[[v2.content]]

查看更多评论
Ollama logo

Ollama

LightTools
2024-05-22
ollama是个可以一键运行本地大语言模型的开源平台,可以快速在本地搭建运行开源大语言模型
- 多平台支持 Linux,Windows,MacOS都可以轻松安装
- 一键运行,仅需要一条命令,ollama便可下载运行大语言模型

ollama下载链接: https://ollama.com/download

安装好ollama后仅需要执行 ollama run llama3 即可运行Meta最新发布的llama3模型,直接就可以在命令行中跟本地大模型对话,非常方便

image.png

  • 首次运行需要下载模型文件llama3默认是8b版本,大小是4.7G
  • 运行8b版本大概是需要占用4~5GB内存
  • ollama会优先使用显卡,实测1080显卡也能有流畅的输出,没有显卡也会使用CPU来运行,不过速度就很慢
  • llama3 70b版本就需要比较高的配置才能运行,推荐64G内存+24G显存
  • 支持的模型列表 https://ollama.com/library
  • 支持以服务的方式在后台运行: ollama serve
  • 支持API方式调用,默认端口是:11434
curl http://localhost:11434/api/chat -d '{
  "model": "llama3",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'
  • 常用参数,需要以环境变量方式设置
#设置服务监听的主机地址,支持局域网访问
OLLAMA_HOST=0.0.0.0 

#同一个模型的最大并发处理数
OLLAMA_NUM_PARALLEL=4

#模型加载数量,设置为2则表示运行2个模型同时运行
OLLAMA_MAX_LOADED_MODELS=2

相关链接

[[list[8]?.like_count]]
[[list[8]?.comment_count]]
0
[[list[8]?.pv]]
596

共[[list[8]?.comment_count]]条评论

[[v.nickname]]
[[v.time_ago]]
[[v.like_count]]

[[v.content]]

[[v2.nickname]]
[[v2.time_ago]]
[[v2.like_count]]

[[v2.content]]

查看更多评论