博客
关于我
elementui+Vue+OSS使用图片上传和删除
阅读量:512 次
发布时间:2019-03-07

本文共 4294 字,大约阅读时间需要 14 分钟。

效果图1:

在这里插入图片描述
效果图2:新增页面
在这里插入图片描述
效果图3:修改页面
在这里插入图片描述
首先引入依赖:

com.aliyun.oss
aliyun-sdk-oss
3.8.0

在后台定义一个控制器:

package com.ff.controller;import com.aliyun.oss.OSSClient;import org.springframework.web.bind.annotation.CrossOrigin;import org.springframework.web.bind.annotation.RequestMapping;import org.springframework.web.bind.annotation.RestController;import org.springframework.web.multipart.MultipartFile;import java.io.IOException;import java.io.InputStream;import java.util.HashMap;import java.util.Map;import java.util.UUID;@RestController@RequestMapping("/file")@CrossOriginpublic class FileController {     // 阿里云oss上传文件相关属性值    // 阿里云API的外网域名    public static final String ENDPOINT = "oss-cn-beijing.aliyuncs.com";    // 阿里云API的密钥    public static final String ACCESS_KEY_ID = "LTAI4Fzm3c6EmUexCHLvZNcm";    // 阿里云API的密钥Access Key Secret    public static final String ACCESS_KEY_SECRET = "b8OrjTpYWW3sZSlimy4sxr2WJuNX09";    // 阿里云API的bucket名称    public static final String BACKET_NAME = "jjjqqq";    // 阿里云API的文件夹名称    public static final String FOLDER = "photo/";    public static final String URl = "https://jjjqqq.oss-cn-beijing.aliyuncs.com/";    //图片上传    @RequestMapping("uploadPhoto")    public Map
uploadPhoto(MultipartFile file) { Map
map=new HashMap<>(); OSSClient ossClient = null; InputStream inputStream = null; try { ossClient = new OSSClient(ENDPOINT,ACCESS_KEY_ID,ACCESS_KEY_SECRET); //获取文件名 String filename = file.getOriginalFilename(); //截取后缀 String suffx = filename.substring(filename.lastIndexOf(".")); //获取文件名称 String newFileName= UUID.randomUUID()+suffx; inputStream = file.getInputStream(); ossClient.putObject(BACKET_NAME,FOLDER+newFileName,inputStream); map.put("filePath",URl+FOLDER+newFileName); } catch (Exception e) { e.printStackTrace(); }finally { if(inputStream!=null){ try { inputStream.close(); } catch (IOException e) { e.printStackTrace(); } } if(ossClient!=null){ ossClient.shutdown(); } } return map; }}

App.Vue页面:

其中img是自己定义的,数据库没有这个字段在这里插入图片描述

修改时在DrugServiceImpl层删除老图片:

@Override   @Override    public void updateDrug(Drug drug) {           //判断新图片和老图片都不为null        if(StringUtils.isNotBlank(drug.getImg()) && StringUtils.isNotBlank(drug.getPhoto()) && !drug.getImg().equals(drug.getPhoto())){              //删除老图片            OSSUtil.deleteFile(drug.getImg());       }        drugMapper.updateById(drug);    }

其中OSSUtil是自己写的工具类:

public class OSSUtil {       // 阿里云oss上传文件相关属性值    // 阿里云API的外网域名    public static final String ENDPOINT = "oss-cn-beijing.aliyuncs.com";    // 阿里云API的密钥    public static final String ACCESS_KEY_ID = "LTAI4Fzm3c6EmUexCHLvZNcm";    // 阿里云API的密钥Access Key Secret    public static final String ACCESS_KEY_SECRET = "b8OrjTpYWW3sZSlimy4sxr2WJuNX09";    // 阿里云API的bucket名称    public static final String BACKET_NAME = "jjjqqq";    // 阿里云API的文件夹名称    public static final String FOLDER = "photo/";    public static final String URl = "https://jjjqqq.oss-cn-beijing.aliyuncs.com/";    public static void deleteFile(String fileName){           OSSClient ossClient = new OSSClient(ENDPOINT,ACCESS_KEY_ID,ACCESS_KEY_SECRET);        //给fileName重新赋值        String replace = fileName.replace(URl, "");        //删除        ossClient.deleteObject(BACKET_NAME,replace);        ossClient.shutdown();    }}

转载地址:http://jpljz.baihongyu.com/

你可能感兴趣的文章
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>