“百花齐放,百家争鸣”
人工智能再掀热潮,近期国产AI大模型竞相发布。继百度、三六零、商汤等科技巨子发布各自负模型后,阿里巴巴“通义千问”大模型4月11日也露脸云峰会。据介绍,阿里达摩院2019年便已启动中文大模型研制。不得不说,这些大厂都是站得高看的远的,稍不留神就会被落下。
阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表明,未来阿里巴巴所有产品都将接入“通义千问”大模型,进行全面改造。据悉,钉钉、天猫精灵将率先接入通义千问测验,评估认证后正式发布新功能。
先给个官网测验地址吧:tongyi.aliyun.com/
我是当天就申请了,没过几天,好消息就来了
咱们今天来说下讲下通义千文的AI感触
我是通义千问 ,一个专门呼应人类指令的大模型
首要进来的落地页面和百度的文心一言、ChatGPT等布局不一样,它多了一些聚焦话题模块,让用户能够直接进入该模块得到自己想要的答案。这是其一,咱们再往下看有个百宝袋:
这儿面是亮点,好不好用先不说,反正挺扎眼的,咱们进去彩虹屁专家看是怎么样的一个“专家”
只能呵呵了,感觉很生硬!!!
输入“鱼香肉丝”,回答
鱼香肉丝菜品
所需食材:
-瘦猪肉丝 250克
-青椒 50克
-红椒 50克
-葱 30克
-姜 10克
-大蒜 10克
-盐 适量
-酱油 适量
-料酒 适量
-生抽 适量
-白糖 适量
-香醋 适量
-生姜 适量
-大蒜 适量
-淀粉 适量
-香油 适量
具体过程:
- 猪肉洗净切细丝,参加盐、酱油、淀粉拌和均匀腌制15分钟。
- 青红椒去蒂去籽切细丝,葱姜蒜切末备用。
- 热锅冷油参加葱姜蒜爆香。
- 参加腌制好的肉丝煸炒至变色,参加青红椒丝翻炒。
- 参加生抽、白糖、香醋、盐、料酒、适量清水翻炒均匀。
- 终究滴入香油,撒上葱花即可。
完整做法:
- 猪肉洗净切细丝,参加盐、酱油、淀粉拌和均匀腌制15分钟。
- 青红椒去蒂去籽切细丝,葱姜蒜切末备用。
- 热锅冷油参加葱姜蒜爆香。
- 参加腌制好的肉丝煸炒至变色,参加青红椒丝翻炒。
- 参加生抽、白糖、香醋、盐、料酒、适量清水翻炒均匀。
- 终究滴入香油,撒上葱花即可。
SWOT剖析
百宝袋中SWOT剖析值得去问问,去跟他聊聊
优势:
- GPT 能够为个人或企业生成各种文本内容,包括文章、广告、电子邮件、网页等。这种自动化东西能够加快文本生成,削减创造时间,一起能够削减错误率。
- GPT 能够在语言和文明领域生成高质量的文本,使得文本的语言、文明和主题愈加准确。
- GPT 能够依据个人或企业的需求生成文本,提供个性化的服务,使得客户更容易接受产品或服务。
劣势:
- 在运用 GPT 生成文本时,需求输入相应的信息,否则 GPT 无法生成正确的文本。
- 需求将所有的信息输入到 GPT 中,否则 GPT 将无法为用户生成所需的文本。
- 假如生成的文本与其别人的文本存在很大的相似性,或许会被视为侵权。
时机:
- 随着人工智能技术的不断发展,GPT 将成为一个普及化的东西,使得更多的人能够运用它来生成文本。
- 对于企业来说,运用 GPT 能够进步生产功率和生产力,然后添加收益。
- 因为 GPT 的生成文本准确度高,因而能够进步客户的满意度,然后促进出售。
要挟:
- 因为 GPT 能够快速生成文本,因而或许会对人类的作业形成要挟。
- 运用 GPT 或许会导致人们的创造力和创造才能下降,因为人们或许会将生成文本作为一个机械的过程。
- 假如 GPT 的生成文本或许会被认为是侵权的,那么运用 GPT 或许会导致法律纠纷
咱们用官方的示例,“在疫情后时代中,传统制造业的时机在哪里”
咱们再来看下编码才能
这儿就不粘贴图片了,咱们用对话的形式将编码才能写下来,咱们感触下:
Q: scala spark中怎么核算同环比
A: 同环比是指在时间范围内,同一组的数值比较,以及环比是指相对于前一个时间的变化。 在 Scala Spark 中,能够经过 `filter()` 函数和 `map()` 函数来完成同环比的核算。 假设有一个数据集是按天分区的,其中有一列是日期。现在想要核算相邻两天的同环比,能够依照以下过程:
1. 创建一个时间窗口,依照日期分区。
2. 将数据集分红若干个子集,每个子集包括相邻的两天。
3. 对每个子集执行上述核算,得到每组的同环比。
示例代码如下:
import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql._
val dateColumn = Seq("date").toDF("date")
val timeWindow = dateColumn.withColumn("end_date", "date").over(
Window.partitionBy("date").orderBy("date")
)
val df = spark.createDataFrame(Seq(("2019-01-01"), ("2019-01-02"), ("2019-01-03"), ("2019-01-04"), ("2019-01-05"), ("2019-01-06"), ("2019-01-07"), ("2019-01-08"), ("2019-01-09"), ("2019-01-10"), ("2019-01-11"), ("2019-01-12"), ("2019-01-13"), ("2019-01-14"), ("2019-01-15"), ("2019-01-16"), ("2019-01-17"), ("2019-01-18"), ("2019-01-19"), ("2019-01-20"), ("2019-01-21"), ("2019-01-22"), ("2019-01-23"), ("2019-01-24"), ("2019-01-25"), ("2019-01-26"), ("2019-01-27"), ("2019-01-28"), ("2019-01-29"), ("2019-01-30"), ("2019-01-31")), Seq("id", "date"))
val resultDF = df.groupBy(dateColumn, "id").agg(first("date"), avg("value").as("value"))
resultDF.show()
输出结果:
+---+----------------+---------+
| id| date | value|
+---+----------------+---------+
| 2019-01-01| 2019-01-01 | 5|
| 2019-01-02| 2019-01-02 | 5|
| 2019-01-03| 2019-01-03 | 2|
| 2019-01-04| 2019-01-04 | 3|
| 2019-01-05| 2019-01-05 | 3|
| 2019-01-06| 2019-01-06 | 1|
| 2019-01-07| 2019-01-07 | 2|
| 2019-01-08| 2019-01-08 | 1|
| 2019-01-09| 2019-01-09 | 1|
| 2019-01-10| 2019-01-10 | 0|
| 2019-01-11| 2019-01-11 | 0|
| 2019-01-12| 2019-01-12 | 1|
| 2019-01-13| 2019-01-13 | 1|
| 2019-01-14| 2019-01-14 | 0|
| 2019-01-15| 2019-01-15 | 0|
| 2019-01-16| 2019-01-16 | 1|
| 2019-01-17| 2019-01-17 | 0|
| 2019-01-18| 2019-01-18 | 0|
| 2019-01-19| 2019-01-19 | 1|
| 2019-01-20| 2019-01-20 | 1|
| 2019-01-21| 2019-01-21 | 0|
| 2019-01-22| 2019-01-22 | 0|
| 2019-01-23| 2019-01-23 | 1|
| 2019-01-24| 2019-01-24 | 0|
| 2019-01-25| 2019-01-25 | 0|
| 2019-01-26| 2019-01-26 | 1|
| 2019-01-27| 2019-01-27 | 0|
| 2019-01-28| 2019-01-28 | 0|
| 2019-01-29| 2019-01-29 | 0|
| 2019-01-30| 2019-01-30 | 0|
| 2019-01-31| 2019-01-31 | 0|
+---+----------------+---------+
发现他并没有核算同环比,接着问:
Q: 并没有核算同环比啊
A: 感谢您指出这个问题。在原来的代码中,咱们只核算了相邻两天的差值,没有考虑相邻两天的环比增加。在核算同环比时,需求将每组数据的相邻两天也考虑进去,所以需求参加一个时间窗口来保存每组数据的相邻两天。 修改后的代码如下:
import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.types._
val dateColumn = Seq("date").toDF("date")
val timeWindow = dateColumn.withColumn("end_date", "date").over(
Window.partitionBy("date").orderBy("date")
)
val df = spark.createDataFrame(Seq(("2019-01-01"), ("2019-01-02"), ("2019-01-03"), ("2019-01-04"), ("2019-01-05"), ("2019-01-06"), ("2019-01-07"), ("2019-01-08"), ("2019-01-09"), ("2019-01-10"), ("2019-01-11"), ("2019-01-12"), ("2019-01-13"), ("2019-01-14"), ("2019-01-15"), ("2019-01-16"), ("2019-01-17"), ("2019-01-18"), ("2019-01-19"), ("2019-01-20"), ("2019-01-21"), ("2019-01-22"), ("2019-01-23"), ("2019-01-24"), ("2019-01-25"), ("2019-01-26"), ("2019-01-27"), ("2019-01-28"), ("2019-01-29"), ("2019-01-30"), ("2019-01-31")), Seq("id", "date"))
val resultDF = df.groupBy(dateColumn, "id").agg(first("date"), avg("value").as("value"))
val idxWindow = Seq("date", "end_date").toDF("idx", "end_date")
val resultDF2 = resultDF.join(idxWindow, "left_id", "right_id", "date")
resultDF2.show()
在这个代码中,咱们在 timeWindow
中新增了一列 idx
表明相邻两天的索引,并将 date
列和 end_date
列进行了索引。然后,咱们运用这两个索引进行了 join
操作,以核算同环比。 需求留意的是,因为咱们运用的是 date
列作为分区键,所以 end_date
列是依照日期排序的。因而,咱们需求在核算同环比之前,先按日期排序每个子集,以确保同环比的值是接连的。
再问下java
Q:java 完成二分法排序
以下是 Java 完成二分查找排序的示例代码:
public static void bubbleSort(int[] nums) {
int n = nums.length;
for (int i = 0; i < n - 1; i++) {
for (int j = 0; j < n - i - 1; j++) {
if (nums[j] > nums[j + 1]) {
int temp = nums[j];
nums[j] = nums[j + 1];
nums[j + 1] = temp;
}
}
}
}
这个完成运用了双重循环,以比较相邻的两个元素,并将较小的元素向后移动一个方位。在每一轮比较中,最大的元素将被保存下来,而最小的元素将被替换为它的下一个元素。因而,终究的有序数组将按升序排列。 同样地,假如需求运用二分查找排序一个数组,能够运用相似的方法来完成。需求留意的是,因为这种排序算法的时间复杂度是 O(n^2),因而在处理大型数据集时,或许需求运用其他算法来优化性能。
总结:
整体来说还行,不是那么的让人失望,补充一句,不支持图片,是的
咱们今天共享到这儿,你也能够查找微信大众号“1点东西”,会有很多AI材料,感谢点赞,重视。
最近一直在写AIGPT类的东西,都收录在下方AI专栏里,今后也会持续输出。