大模型的N种用法(持续更新中。。。)

这篇具有很好参考价值的文章主要介绍了大模型的N种用法(持续更新中。。。)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


前言

当今的ChatGPT是一个强大的语言模型,它可以帮助您创建出色的产品并提高您的业务成功率。ChatGPT利用大规模的自然语言处理和机器学习算法,可以进行自然而流畅的对话,理解自然语言问题和回答。您可以使用ChatGPT来建立智能客服、智能助手、文本自动补全、语音识别和机器翻译等多种产品。ChatGPT可以快速适应新的数据和新的场景,使用ChatGPT,您可以轻松实现个性化、高效率和全天候的服务。让ChatGPT帮助您推动业务的增长!

一、语法更正

用途:文章、论文等润色。
大模型的N种用法(持续更新中。。。)

二、文本翻译

用途:日常学习、商务翻译等。
大模型的N种用法(持续更新中。。。)

三、语言转换

3-1、Python–>JAVA

用途:工作用途,不同语言工程师之间的合作,更加方便。
大模型的N种用法(持续更新中。。。)

import numpy as np
import plotly.express as px

def thresholding_algo(y, lag, threshold):
    """
    :param y: 输入列表
    :param lag: 滑动窗口大小
    :param threshold: 调节系数,用于调节容忍范围的大小。
    :return:
    """
    # signals:信号列表
    signals = np.zeros(len(y))
    avgFilter = np.zeros(len(y))

    # 初始化平均值列表、差值列表
    avgFilter[lag - 1] = np.mean(y[0:lag])
    dif_li = [0] * len(y)

    for i in range(lag, len(y)):
        if i < len(y) - lag - 30:
            for j in range(i + 11, len(y)):
                if y[j] >= y[i - 1]:
                    break
            if j >= len(y) - 30:
                back = y[i - 1]
            else:
                back = np.mean(y[j + 11:j + 20 + lag])
        else:
            back = y[i - 1]

        # 前后均值差值计算
        tmp = abs(back - avgFilter[i - 1])
        dif = (tmp if tmp > 1 else 1)

        if abs(y[i] - avgFilter[i - 1]) > dif * threshold:
            signals[i] = (1 if y[i] > avgFilter[i - 1] else -1)
            avgFilter[i] = np.mean(y[(i - lag):i])
            y[i] = avgFilter[i - 1]
        else:
            signals[i] = 0
            avgFilter[i] = np.mean(y[(i - lag):i])

        dif_li[i] = dif

    return dict(signals=np.asarray(signals),
                avgFilter=np.asarray(avgFilter),
                y=np.asarray(y),
                dif=np.asarray(dif_li),
                )

大模型的N种用法(持续更新中。。。)

public static Map<String, double[]> thresholding_algo(double[] y, int lag, double threshold) {

    double[] signals = new double[y.length];
    double[] avgFilter = new double[y.length];
    Arrays.fill(avgFilter, 0.0);

    avgFilter[lag - 1] = mean(Arrays.copyOfRange(y, 0, lag));
    double[] dif_li = new double[y.length];
    Arrays.fill(dif_li, 0.0);

    for (int i = lag; i < y.length; i++) {
        int j;
        if (i < y.length - lag - 30) {
            for (j = i + 11; j < y.length; j++) {
                if (y[j] >= y[i - 1]) {
                    break;
                }
            }
            double back;
            if (j >= y.length - 30) {
                back = y[i - 1];
            } else {
                back = mean(Arrays.copyOfRange(y, j + 11, j + 20 + lag));
            }
        } else {
            back = y[i - 1];
        }

        double tmp = Math.abs(back - avgFilter[i - 1]);
        double dif = tmp > 1 ? tmp : 1;

        if (Math.abs(y[i] - avgFilter[i - 1]) > dif * threshold) {
            signals[i] = y[i] > avgFilter[i - 1] ? 1 : -1;
            avgFilter[i] = mean(Arrays.copyOfRange(y, i - lag, i));
            y[i] = avgFilter[i - 1];
        } else {
            signals[i] = 0;
            avgFilter[i] = mean(Arrays.copyOfRange(y, i - lag, i));
        }

        dif_li[i] = dif;
    }

    Map<String, double[]> result = new HashMap<>();
    result.put("signals", signals);
    result.put("avgFilter", avgFilter);
    result.put("y", y);
    result.put("dif", dif_li);

    return result;
}

private static double mean(double[] array) {
    double sum = 0.0;
    for (double d : array) {
        sum += d;
    }
    return sum / array.length;
}

四、代码解释-1

用途:当我们来到一家新的公司,发现前任工程师留下了一摊谁都看不懂的代码,这时候,如果有个人能帮我们解释一下这些代码是什么意思,那简直不要太开心。
大模型的N种用法(持续更新中。。。)

def Fusion_algorithm(y_list):
    """
    最终的融合算法
    1、第一次遍历列表: 处理掉小于上一个值的点,使其等于上一个值。
    2、第二次使用z-score来处理异常点:一种基于统计方法的时序异常检测算法借鉴了一些经典的统计方法,比如Z-score和移动平均线
    该算法将时间序列中的每个数据点都看作是来自一个正态分布,通过计算每个数据点与其临接数据点的平均值和标准差,可以获得Z-score
    并将其用于检测异常值,将z-score大于3的数据点视为异常值,缺点:如果异常点太多,则该算法的准确性较差。
    3:param y_list: 传入需要处理的时间序列
    :return:
    """
    # 第一次处理
    for i in range(1, len(y_list)):
        difference = y_list[i] - y_list[i - 1]
        if difference <= 0:
            y_list[i] = y_list[i - 1]
        # 基于突变检测的方法:如果一个数据点的值与前一个数据点的值之间的差异超过某个阈值,
        # 则该数据点可能是一个突变的异常点。这种方法需要使用一些突变检测算法,如Z-score突变检测、CUSUM(Cumulative Sum)
        # else:
        #     if abs(difference) > 2 * np.mean(y_list[:i]):
        #         y_list[i] = y_list[i - 1]

    # 第二次处理
    # 计算每个点的移动平均值和标准差
    ma = np.mean(y_list)
    # std = np.std(np.array(y_list))
    std = np.std(y_list)
    # 计算Z-score
    z_score = [(x - ma) / std for x in y_list]
    # 检测异常值
    for i in range(len(y_list)):
        # 如果z-score大于3,则为异常点,去除
        if z_score[i] > 3:
            print(y_list[i])
            y_list[i] = y_list[i - 1]

    return y_list

大模型的N种用法(持续更新中。。。)

五、代码解释-2

备注:上一个代码解释,我们可以看到,答案或许受到了代码中注释的影响,我们删掉注释,再来一次。对于解释中一些不懂的点,我们可以连续追问!

大模型的N种用法(持续更新中。。。)

import numpy as np
from sklearn.ensemble import IsolationForest
import plotly.express as px
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans
import json

def Fusion_algorithm(y_list):
    for i in range(1, len(y_list)):
        difference = y_list[i] - y_list[i - 1]
        if difference <= 0:
            y_list[i] = y_list[i - 1]
    
        # else:
        #     if abs(difference) > 2 * np.mean(y_list[:i]):
        #         y_list[i] = y_list[i - 1]


    ma = np.mean(y_list)
    std = np.std(y_list)
    z_score = [(x - ma) / std for x in y_list]
    for i in range(len(y_list)):
        if z_score[i] > 3:
            print(y_list[i])
            y_list[i] = y_list[i - 1]

    return y_list

大模型的N种用法(持续更新中。。。)
大模型的N种用法(持续更新中。。。)

六、修复代码错误

用途:写完一段代码后发现有错误?让chatGPT来帮你!
大模型的N种用法(持续更新中。。。)

### Buggy Python
import Random
a = random.randint(1,12)
b = random.randint(1,12)
for i in range(10):
    question = "What is "+a+" x "+b+"? "
    answer = input(question)
    if answer = a*b
        print (Well done!)
    else:
        print("No.")

大模型的N种用法(持续更新中。。。)

七、作为百科全书

用途:chatGPT可以解释你所有的问题!但是列出小说这个功能有些拉跨,经过测试只有科幻小说列的还可以,其他类型不太行,可能chatgpt训练工程师是个科幻迷!
大模型的N种用法(持续更新中。。。)

八、信息提取

用途:作为自然语言处理界的大模型,怎么能少得了信息提取呢?
大模型的N种用法(持续更新中。。。)

九、好友聊天

用途:输入对方性格模拟聊天,这方面功能不太完善,可能有新鲜玩法我还没有挖掘出来。
大模型的N种用法(持续更新中。。。)
大模型的N种用法(持续更新中。。。)

十、创意生成器

用途:是不是常常会在创新上遇到思维瓶颈不知道怎么做?不要担心,让chatGPT帮你生成创意!

10-1、VR和密室结合

大模型的N种用法(持续更新中。。。)

10-2、再结合AR

大模型的N种用法(持续更新中。。。)

十一、采访问题

用途: 可能您是一个媒体工作者,采访问题不知道怎么写?chatGPT可以帮您解决。

11-1、采访问题清单

大模型的N种用法(持续更新中。。。)

11-2、采访问题清单并给出相应答案

大模型的N种用法(持续更新中。。。)

十二、论文大纲

用途: 这个功能对于研究生简直不要太爽了,一直在郁闷大纲怎么写,直接列出来大纲简直帮了我天大的忙!对于大纲中不理解的点,直接要求chatGPT给出进一步解释。代码也可以有!那一章的内容不太会写,直接让chatGPT安排,这样,一篇论文很快就写出来啦!

12-1、创建论文大纲

大模型的N种用法(持续更新中。。。)

12-2、解释大纲内容

大模型的N种用法(持续更新中。。。)

class PBA(nn.Module):
    def __init__(self, PerformanceThreshold, DistributionType, AttentionWeightRange):
        super(PBA, self).__init__()
        self.PerformanceThreshold = PerformanceThreshold
        self.DistributionType = DistributionType
        self.AttentionWeightRange = AttentionWeightRange
        
    def forward(self, input, performance_scores):
        # 计算注意力分数
        attention_scores = []
        for i in range(len(input)):
            if performance_scores[i] > self.PerformanceThreshold:
                attention_scores.append(performance_scores[i])
            else:
                attention_scores.append(0.0)
                
        # 将性能分数映射到注意力权重
        if self.DistributionType == "softmax":
            attention_weights = F.softmax(torch.tensor(attention_scores), dim=0)
        elif self.DistributionType == "sigmoid":
            attention_weights = torch.sigmoid(torch.tensor(attention_scores))
        else:
            raise ValueError("Unknown distribution type: {}".format(self.DistributionType))
        
        # 缩放注意力权重到指定范围
        attention_weights = attention_weights * (self.AttentionWeightRange[1] - self.AttentionWeightRange[0]) + self.AttentionWeightRange[0]
        
        # 计算加权输入
        weighted_input = torch.mul(input, attention_weights.unsqueeze(1).expand_as(input))
        output = torch.sum(weighted_input, dim=0)
        
        return output

十三、故事创作

用途: 这个功能真的太太太棒了,以后我自己列提纲出来就可以写小说啦!

13-1、爱情故事

大模型的N种用法(持续更新中。。。)

13-2、恐怖故事

大模型的N种用法(持续更新中。。。)
大模型的N种用法(持续更新中。。。)

十四、问题类比

用途: 当你想要做一个比喻时,这是一个很棒的功能。
大模型的N种用法(持续更新中。。。)

十五、创建SQL需求

用途: 写SQL有时候挺头疼的,想好久想不起来。

大模型的N种用法(持续更新中。。。)

十六、情感分析

用途: 这个功能让我想起来在之前公司做的情感分析任务了。
大模型的N种用法(持续更新中。。。)

十七、将产品描述转变为广告

用途: 这个功能对于商家来说太棒了。
大模型的N种用法(持续更新中。。。)

十八、关键字提取

用途: NLP任务的重要作用,关键字提取!
大模型的N种用法(持续更新中。。。)

十九、闲聊机器人

用途:这个不多说了,用来闲聊体验感真的很不错。
大模型的N种用法(持续更新中。。。)
大模型的N种用法(持续更新中。。。)
大模型的N种用法(持续更新中。。。)


二十、总结

emmm,今天白嫖次数太多了,request请求被禁止了,那就改天再请求啦~文章来源地址https://www.toymoban.com/news/detail-480395.html

到了这里,关于大模型的N种用法(持续更新中。。。)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Ai】一文上手ChatGPT(持续更新)

    目录 体验渠道 weTab CSDN-AI助手 其他插件 ChatGPT简介 ChatGPT主要用途 ChatGPT发展历程 GPT-4架构的特点和优势 ChatGPT的工作原理 神经网络和自然语言处理技术 Transformer模型 模型训练优化技巧 ChatGPT的优缺点 ChatGPT对程序员的帮助 ChatGPT交互和提问技巧 ChatGPT未来发展 ChatGPT的应用领域

    2024年02月07日
    浏览(37)
  • ChatGPT prompt汇总-个人使用-持续更新....

    中译英(GPT-4) I am a researcher studying deep learning and now trying to revise my manuscript which will be submitted to the Journal of Nature . I want you to act as a scientific English-Chinese translator, I will provide you with some paragraphs in one language and your task is to accurately and academically translate the paragraphs only into the other l

    2024年02月07日
    浏览(32)
  • ChatGPT 使用中常见错误及解决【持续更新】

    无法注册-Signup is currently unavailable, please try again later 更换谷歌gmail邮箱注册。(截止2023/04/02有效) 密码错误-Wrong email or password 确认输入密码是否正确,确认正确再往下看。 若使用谷歌gmail邮箱注册-点击Continue with Google登录。 若使用微软outlook邮箱注册-点击Continue with Microsof

    2023年04月10日
    浏览(58)
  • 深度学习常见模型大小汇总(持续更新...)

    本篇博客将记录深度学习领域常见模型的大小,具体算法如下 模型可能来自于PyTorch官方,HuggingFace等。 如有错误或者建议欢迎在评论区指出。 第三方库 版本 transformers 4.30.2 PyTorch 2.0.1 Encoder-Only架构 模型 来源 总参数量 总参数量 BERT-base HuggingFace 109,482,240 109.5M BERT-large Huggin

    2024年02月13日
    浏览(41)
  • 大语言模型面试问题【持续更新中】

    transformer中求和与归一化中“求和”是什么意思? 求和的意思就是残差层求和,原本的等式为y = H(x)转化为y = x + H(x),这样做的目的是防止网络层数的加深而造成的梯度消失,无法对前面网络的权重进行有效调整,导致神经网络模型退化(这种退化不是由过拟合造成的,而是

    2024年01月18日
    浏览(41)
  • 不同问题来评测百度、谷歌、ChatGPT、Phind、GPT-4(持续更新)

      大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的

    2024年02月04日
    浏览(76)
  • 开源大语言模型(LLM)汇总(持续更新中)

    随着ChatGPT的火爆,越来越多人希望在本地运行一个大语言模型。为此我维护了这个开源大语言模型汇总,跟踪每天不发的大语言模型和精调语言模型。 我将根据个模型采用的基础大模型进行分类,每个大模型下列出各派生模型。 斯坦福Alpaca:一种指令遵从型 LLaMA 模型。 🏠

    2023年04月17日
    浏览(40)
  • ChatGPT 3.5 API的调用不全指南(持续更新ing...)

    诸神缄默不语-个人CSDN博文目录 OpenAI platform:https://platform.openai.com/overview 最近更新时间:2023.6.14 最早更新时间:2023.5.17 关于怎么才能上ChatGPT、怎么才能获取API额度等等信息,建议直接见我的medium账号。 因为这不是能在内网发的内容。 本文不涉及相关网络问题。 我本来想靠

    2024年02月05日
    浏览(37)
  • Stable Diffusion 常用插件及模型清单(持续更新)

            Stable Diffusion 使用过程中有许多插件及资源,此文主要为整理相关的插件及插件使用方式。对于需要魔法访问的部分资源进行搬运以便魔法失灵的小伙伴下载使用。 (Civitai助手,V2将改名为**Model Info助手**。)  table Diffusion Webui 扩展Civitai助手,用于更轻松的管理

    2024年02月09日
    浏览(65)
  • AI领域常用大模型地址及下载方法(持续更新)

    现在大模型比较多,平时需要调试对比,就把这些大模型简单一个收集。 不断收集,不断学习 目前,开原模型较多,一些能力弱的,没啥意义 基座模型通常指的是一个通用的、预先训练好的语言模型,如GPT-3.5。这种模型在各种自然语言处理任务中表现出色,可以用作其他更

    2024年02月03日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包