巧用sql函数完成业务功能

2021-11-15  本文已影响0人  孑鼠

1,case when mysql版本的if

这是一个类似于我们java中的if的sql函数,当xx的时候执行xx操作


SELECT
    bus_scheduling.line_id,
CASE    
    WHEN bus_scheduling.is_deleted = 1 AND bus_scheduling.scheduling_time > unix_timestamp( DATE( now( ) ) ) THEN
    1 ELSE 0 
        END AS is_scheduling_time 
FROM
    bus_scheduling 

上述的sql的意思是当bus_scheduling表的逻辑删除字段为1并且scheduling_time 的值大于当前时间的时候我们能给is_scheduling_time 字段赋值为1其余的情况为2

这个语法可以结合group by分组使用,可以解决一些先分组然后再分页,但是分组的条件需要自己组装的时候来使用,还可以结合min和max之类的函数获取特殊的最大值最小值

2,GROUP_CONCAT 分组并拼接

有的时候业务需求,需要两个表或者三个表的数据,需要根据主表的数据查询出子表的与之相关连的某一个字段的值,如果使用java代码实现就通过两次查询,一次查询主表分页,然后再根据主表数据来查询满足条件的子表的数据,

那如果要求分组的条件需要使用到子表的数据代码又该如何实现呢?
SELECT
    GROUP_CONCAT( bs.scheduling_time ) AS scheduling_times, bl.id 
FROM
    bus_line bl
    LEFT JOIN bus_scheduling bs ON bl.id = bs.line_id 
GROUP BY
    bl.id 
HAVING
    scheduling_times IS not  NULL

以上sql的意义是关联两个表的数据并且查询出子表中的数据并整理到一起,然后再筛选出bus_scheduling 表中没有bus_line 关联的scheduling_times 字段的数据,不仅如此我们的GROUP_CONCAT还可以完成排序以及去重的功能,同时我们的字段值还可以套用其他的函数

SELECT
    GROUP_CONCAT( CONCAT(bs.scheduling_time,'||',bs.id)) AS scheduling_times, bl.id 
FROM
    bus_line bl
    LEFT JOIN bus_scheduling bs ON bl.id = bs.line_id 
GROUP BY
    bl.id 
HAVING
    scheduling_times IS not  NULL
#查询出来的结果
1632758400||4762,1632758400||4763,1633881600||4764,1633881600||4765,1633968000||4766,1634486400||4767,1634572800||4768,1634572800||4769,1634572800||4770,1634745600||4773,1634745600||4774,1635436800||4808,1639929600||4927,1640966400||5064   733

还可以在GROUP_CONCAT函数内部使用CONCAT函数拼接出你所需要的信息
GROUP_CONCAT 返回的结果是每个分组之前的多个值拼接然后使用逗号连接在一起,我们还可以再添加上去重的功能

3,JSON_OBJECT('json属性', "内容")

这个函数可以适用于我们将表中的某些字段组装成json字符串

SELECT JSON_OBJECT("appkey",app_key,"id",id) FROM `trip_order_special`

#返回结果
{"id": 191926, "appkey": "ee6f87c7f95d4d45"}

拆分的函数

REGEXP_SUBSTR(String, pattern, position, occurrence, modifier)

解析:
string: 需要进行正则处理的字符串
pattern:进行匹配的正则表达式
position:起始位置,从第几个字符开始正则表达式匹配(默认为1)
occurrenec:标识第几个匹配组,默认为1
modifier:模式('i'不区分大小写进行检索;'c'区分大小写进行检索。默认为'c'。)

上一篇下一篇

猜你喜欢

热点阅读