专注于车载信息安全和预期功能安全技术研究
电话:+86 21 62655001
您的位置: 网站首页 > 学术前沿
2021-03-23 10:30:12

论文复现——基于预测的自动驾驶全球导航卫星系统欺骗攻击检测

来源:学术前沿 浏览次数:199 点赞数:0

1.
数据准备

Comma.ai 使用的视听设备有一个前置摄像头、温度计和9轴惯性测量单元。除了这些传感器数据,Comma2k19 数据集还包含来自全球导航卫星系统(GNSS)和控制区域网络(CAN)的测量值(见表 1 和表 2)。数据收集使用了可跟踪全球导航卫星系统的 u-blox M8 全球导航卫星系统模块,水平位置精度为 2.5 米。位置测量使用了全球定位系统(GPS)和全球轨道导航卫星系统(GLONASS)信号。此外,使用开源的GNSS处理库 Laika 来减少定位误差,定位误差降低了 40%。

在这里我们选择部分数据用于接下来的模型中:
  • GNSS数据集包含来自 u-blox 和 Qcom 的实时和原始导航卫星系统数据。每个实时数据包括纬度、经度、速度、utc 时间戳、高度和方位角数据。但它们都是未被Laika优化的数据,为了得到更好的效果,我们采用global_pose文件夹中的frame_positionframe_gps_timesframe_velocities的数据,后续可看情况加入frame_orientations数据。综合起来用于训练的GNSS数据有时间,经纬度(高度可不考虑)和速度,如下表所示:


其中global_pose\frame_position中的坐标是ECEF的(x, y, z),须将其转化为GPS常用的经纬度坐标(wgs845),Python代码实现如下:
1import pyproj
2
3transformer = pyproj.Transformer.from_crs(
4    {"proj":'geocent', "ellps":'WGS84', "datum":'WGS84'},
5    {"proj":'latlong', "ellps":'WGS84', "datum":'WGS84'},
6    )
7lon, lat, alt = transformer.transform(x,y,z,radians=False)
8print (lat1, lon1, alt1 )

要注意返回的经纬度顺序是Longitude在前,与常规有所区别。
  • 相关的CAN数据是CAN时间,车速和方向盘转角数据(见表2),可分别从processed_log/CAN/speed/tprocessed_log/CAN/speed/valueprocessed_log/CAN/steering_angle/value读取, 样例如下表所示。



2.
时间处理
值得注意的是,用于分析的数据集包含7200个GNSS观测值、35726个CAN观测值和72148个IMU观测值,GNSS、CAN和IMU数据的频率分别为10、50和100赫兹。这意味着不同数据源的时间是有略微不同的,在本项目中GNSS时间被用作参考时间,所有其他传感器数据被同步,以便为LSTM模型准备训练和测试数据集。为了在作为参考时间的准确时间获得CAN和IMU的数据,在GNSS的两个最近观测值之间要对CAN和IMU进行插值,在这里我采用scipy的样条插值方法,Python代码实现如下:
 1from scipy.interpolate import make_interp_spline
 2
 3CAN_time = np.load(example_segment + 'processed_log/CAN/speed/t')
 4gps_time = np.load(example_segment + 'global_pose/frame_times')
 5# 对CAN的速度进行插值
 6CAN_speed = np.load(example_segment + 'processed_log/CAN/speed/value')
 7new_CAN_speed = make_interp_spline(CAN_time, CAN_speed)(gps_time)
 8
 9plt.figure(figsize=(12, 12))
10    plt.plot(CAN_time, CAN_speed, label='CAN')
11    plt.plot(gps_time, new_CAN_speed, label='new_CAN')
12    plt.legend(fontsize=25)
13    plt.xlabel('boot time (s)', fontsize=18)
14    plt.ylabel('speed (m/s)', fontsize=18)
15    plt.show()



当处理时间数据的时候我发现它们存在一些小瑕疵——有重复值,而且即使是同样来自CAN的数据,speed的时间和steering_angle的时间也是不一致的,这意味着它们要分别读取,分别插值。Python代码实现:
 1# 数组去重
 2def unique(old_list):
 3    newList = []
 4    # 判断相邻时间是否相等
 5    if np.any(old_list[1:] == old_list[:-1]):
 6        for x in old_list:
 7            if x in newList:
 8                # 若相等,则加上一个微小的数使其不等
 9                x = x + 0.005
10            newList.append(x)
11        return np.array(newList)
12    else: return old_list
13
14temp_CAN_times = np.load(main_dir + '\\processed_log\\CAN\\speed\\t')
15# 确保时间无重复值
16temp_CAN_speed_times = unique(temp_CAN_times)
17# CAN_angles_times和CAN_speed_times有时不一致
18temp_CAN_angles_times = np.load(main_dir + '\\processed_log\\CAN\\steering_angle\\t')
19temp_CAN_angles_times = unique(temp_CAN_angles_times)
20temp_IMU_times = np.load(main_dir + '\\processed_log\\IMU\\accelerometer\\t')


3.
距离计算
当我们预测自动驾驶车辆当前位置和最近未来位置之间的行驶距离时,从上一个时间步长开始的每个时间步长中的行驶距离是使用纬度和经度坐标以及以下哈弗辛大圆公式计算的:


Python实现如下:

 1import math
 2EARTH_REDIUS = 6378.137
 3
 4def rad(d):
 5    return d * math.pi / 180.0
 6def getDistance(lats1, lngs1, lats2, lngs2):
 7    # 对数组取元素做运算
 8    res = []
 9    for i in range(len(lat1)):
10        radLat1 = rad(lat1[i])
11        radLat2 = rad(lat2[i])
12        a = radLat1 - radLat2
13        b = rad(lng1[i]) - rad(lng2[i])
14        s = 2 * math.asin(math.sqrt(math.pow(math.sin(a / 2), 2) + math.cos(radLat1) * math.cos(radLat2) * math.pow(
15            math.sin(b / 2), 2)))
16        s = s * EARTH_REDIUS * 1000
17        res.append(s)
18    return res
19
20# 计算距离    
21distance = getDistance(lats1, lngs1, lats2, lngs2)
22plt.plot(times[:-1], distance, label='distance')
23plt.title('Traveled distance between two consecutive timestamps', fontsize=20);
24plt.legend(fontsize=20);
25plt.xlabel('boot time (s)', fontsize=18);
26plt.ylabel('distance(m) ', fontsize=18);
27plt.show()


与速度图相比较,可以发现形状相似,说明计算无误。


对一个segment的distance绘图没有问题,但如果对一个route的多个segment一个绘图就会发现存在异常值,如下图所示:


可以看到异常值使曲线十分不光滑。


蓝色框中的数据和周边数据明显不同,对于这个问题我咨询comma.ai得到的解释是:每个segment的数据是分别优化的,并不保证segment之间坐标的连续性,所以每跨一个段时(60s),就会出现这样的异常值。由于这些异常值占比极小,可忽略不计。


4.
合并数据集
对比GNSS的速度与CAN的速度我们会发现存在偏差,考虑到CAN速度会比GNSS速度更能反映实际情况,故只采用CAN的速度,我们使用LSTM模型来预测每个时间戳的当前位置和最近的未来位置之间的距离,使用无攻击的CAN、IMU和GNSS数据。在本文中,我们使用的LSTM模型由一个输入层、一个具有50个神经元的递归隐藏层和一个输出层组成。训练LSTM模型的输入数据包括来自控制器局域网的速度和转向角数据以及来自惯性测量单元的前向加速度数据输出是每个时间戳当前位置和最近未来位置之间的距离。在训练数据规模上我们有考量,每个chunk之间甚至同一个chunk内不同route的数据都是不相关的,他们之间的不连续性使得它们没法反映真实情况,所幸同一个route之间的segments是基本连续的,我们将训练范围缩小至一个route文件夹的数据,如果用其他场景丰富且时间连续的数据集训练效果会更好,读取数据的代码实现如下:
 1dataset_directory = 'D:\comma2k19'
 2    chunk_set = []
 3    for chunk in os.listdir(dataset_directory):
 4        # 忽略生成的csv文件
 5        if ".csv" in chunk:
 6            continue
 7        # 如果序号为单个时在前补零,以便后面排序
 8        if len(chunk) == 7:
 9            used_name = chunk
10            chunk = str_insert(chunk,6,'0')
11            os.rename(os.path.join(dataset_directory, used_name), os.path.join(dataset_directory, chunk))
12        chunk_set.append(os.path.join(dataset_directory, chunk))
13    # 将序号小的片段放在前面
14    chunk_set.sort()
15    # 选一个chunk来训练(200分钟)
16    chunk_index = 0
17    route_set = []
18    for route_id in os.listdir(chunk_set[chunk_index]):
19        # 忽略生成的csv文件
20        if ".csv" in route_id:
21            continue
22        route_set.append(os.path.join(chunk_set[chunk_index], route_id))
23    segment_set = []
24    # 选一个路段训练
25    route_index = 9
26    for segment in os.listdir(route_set[route_index]):
27        # 如果序号为单个时在前补零,以便后面排序
28        if len(segment) == 1:
29            used_name = segment
30            segment = '0'+segment
31            os.rename(os.path.join(route_set[route_index], used_name),os.path.join(route_set[route_index], segment))
32        segment_set.append(os.path.join(route_set[route_index], segment))
33    # 将序号小的片段放在前面
34    segment_set.sort()
35    times = []
36    lons = []
37    lats = []
38    orientations = []
39    CAN_speeds = []
40    steering_angles = []
41    acceleration_forward = []
42    for main_dir in segment_set:
43        # 导入GNSS的时间和位置(pose)并将位置转化为经纬度
44        temp_GNSS_time = np.load(main_dir + '\\global_pose\\frame_times')
45        times = np.append(times, temp_GNSS_time)
46        # 打印每一段的长度
47        print(len(temp_GNSS_time))
48        positions = np.load(main_dir + '\\global_pose\\frame_positions')
49        positions = position_transformer.transform(positions[:, 0], positions[:, 1], positions[:, 2], radians=False)
50        lats = np.append(lats, positions[1])
51        lons = np.append(lons, positions[0])
52        temp_CAN_times = np.load(main_dir + '\\processed_log\\CAN\\speed\\t')
53        # 确保时间无重复值
54        temp_CAN_speed_times = unique(temp_CAN_times)
55        # 对CAN数据按照GNSS参考时间插值
56        temp_CAN_speeds = make_interp_spline(temp_CAN_speed_times, np.load(main_dir + '\\processed_log\\CAN\\speed\\value'))(temp_GNSS_time).flatten()
57        CAN_speeds = np.append(CAN_speeds, temp_CAN_speeds)
58        # CAN_angles_times和CAN_speed_times有时不一致
59        temp_CAN_angles_times = np.load(main_dir + '\\processed_log\\CAN\\steering_angle\\t')
60        temp_steering_angles = np.load(main_dir + '\\processed_log\\CAN\\steering_angle\\value')
61        temp_CAN_angles_times = unique(temp_CAN_angles_times)
62        temp_steering_angles = make_interp_spline(temp_CAN_angles_times, temp_steering_angles)(temp_GNSS_time)
63        steering_angles = np.append(steering_angles, temp_steering_angles)
64        # 对IMU数据按照GNSS参考时间插值
65        temp_IMU_times = np.load(main_dir + '\\processed_log\\IMU\\accelerometer\\t')
66        temp_acceleration_forward = make_interp_spline(temp_IMU_times, np.load(main_dir +
67                                '\\processed_log\\IMU\\accelerometer\\value')[:, 0])(temp_GNSS_time)
68        acceleration_forward = np.append(acceleration_forward, temp_acceleration_forward)


5.
转化为监督学习问题化
该问题本质是监督学习问题,当前是时刻的速度,转角和前向加速度是feature,下一时刻位置离当前时刻位置的距离将作为标签,更多有关时序数据预测问题转化为监督学习,参考https://blog.csdn.net/qq_28031525/article/details/79046718,Python代码实现如下:
 1def series_to_supervised(data, n_in=1, n_out=1, dropnan=True):
 2    n_vars = 1 if type(data) is list else data.shape[1]
 3    df = pd.DataFrame(data)
 4    column_names = ['lats', 'lons', 'CAN_speeds', 'steering_angles', 'acceleration_forward']
 5    cols, names = list(), list()
 6    # input sequence (t-n, ... t-1)
 7    for i in range(n_in, 0, -1):
 8        cols.append(df.shift(i))
 9        names += [('%s(t-%d)' % (j, i)) for j in column_names]
10    # forecast sequence (t, t+1, ... t+n)
11    for i in range(0, n_out):
12        cols.append(df.shift(-i))
13        if i == 0:
14            names += [('%s(t)' % (j)) for j in column_names]
15        else:
16            names += [('%s(t+%d)' % (j, i)) for j in column_names]
17    # put it all together
18    agg = pd.concat(cols, axis=1)
19    agg.columns = names
20    # drop rows with NaN values
21    if dropnan:
22        agg.dropna(inplace=True)
23    return agg
24
25DataSet = list(zip(times, lats, lons, CAN_speeds, steering_angles, acceleration_forward))
26column_names = ['times', 'lats', 'lons', 'CAN_speeds', 'steering_angles', 'acceleration_forward']
27df = pd.DataFrame(data=DataSet, columns=column_names)
28times = df['times'].values
29df = df.set_index(['times'], drop=True)
30values = df.values.astype('float64')
31# 转为监督学习问题, 其实就是将下一时刻的特征(distance)作为当前时刻的标签
32reframed = series_to_supervised(values, 1, 1)
33# 计算距离
34lons_t = reframed['lons(t)'].values
35lats_t = reframed['lats(t)'].values
36distance = np.array(getDistance(lats[:-1], lons[:-1], lats_t, lons_t))
37# drop columns we don't want to predict including(CAN_speed,steering_angel, acceleration_forward)
38reframed.drop(reframed.columns[[0, 1, 5, 6, 7, 8, 9]], axis=1, inplace=True)
39# 时间和计算的距离添加到数据集
40reframed['distance'] = distance
41reframed['times'] = times[: -1]
42# for i in distance:
43#     if i > 100:
44#         print(i)
45plt.plot(times[:-1], distance)
46plt.xlabel('Boot time (s)', fontsize=18)
47plt.ylabel('Distance travelled during single timestamp (m) ', fontsize=12)
48plt.show()
49# 将合并的数据保存为.csv文件
50reframed.to_csv(route_set[route_index]+".csv", index=False, sep=',')
这部分工作可以让我们在指定的范围内提取我们想要的数据,生成可供读写的.csv文件,可供训练和测试阶段直接利用。

6.
模型训练和评估

读取数据
首先你需要任意选择两个route文件夹的数据分别做训练集合测试集,这可以通过data_prepare.py完成,接下来就是将他们分别读进来,并做一些处理,其中归一化可以提升训练效果和收敛速度,示例代码如下:
 1train_CSV_FILE_PATH = 'D:\\comma2k19\\Chunk_01\\b0c9d2329ad1606b_2018-08-02--08-34-47.csv'
 2test_CSV_FILE_PATH = 'D:\\comma2k19\\Chunk_01\\b0c9d2329ad1606b_2018-08-01--21-13-49.csv'
 3train_df = pd.read_csv(train_CSV_FILE_PATH)
 4test_df = pd.read_csv(test_CSV_FILE_PATH)
 5train_values = train_df.to_numpy()
 6train_times = train_values[:, -1]
 7train_distance = train_values[:, -2]
 8test_values = test_df.to_numpy()
 9test_times = test_values[:, -1]
10test_distance = test_values[:, -2]
11# 将输入特征归一化
12scaler = MinMaxScaler(feature_range=(0, 1))
13train_X, train_y = scaler.fit_transform(train_values[:, :-2]), train_distance
14test_X, test_y = scaler.fit_transform(test_values[:, :-2]), test_distance


设计网络并训练
我们直接使用keras的lstm模块来建立网络模型,请确保你已搭建好相应环境。现在可以搭建LSTM模型了。LSTM模型中,隐藏层有50个神经元,输出层1个神经元(回归问题),输入变量是一个时间步(t-1)的特征,损失函数采用Mean Absolute Error(MAE),优化算法采用Adam。
 1train_CSV_FILE_PATH = 'D:\\comma2k19\\Chunk_01\\b0c9d2329ad1606b_2018-08-02--08-34-47.csv'
 2test_CSV_FILE_PATH = 'D:\\comma2k19\\Chunk_01\\b0c9d2329ad1606b_2018-08-01--21-13-49.csv'
 3train_df = pd.read_csv(train_CSV_FILE_PATH)
 4test_df = pd.read_csv(test_CSV_FILE_PATH)
 5train_values = train_df.to_numpy()
 6train_times = train_values[:, -1]
 7train_distance = train_values[:, -2]
 8test_values = test_df.to_numpy()
 9test_times = test_values[:, -1]
10test_distance = test_values[:, -2]
11# 将输入特征归一化
12scaler = MinMaxScaler(feature_range=(0, 1))
13train_X, train_y = scaler.fit_transform(train_values[:, :-2]), train_distance
14test_X, test_y = scaler.fit_transform(test_values[:, :-2]), test_distance
学习率可以通过optimizer来设置,adam默认为0.01,其他超参数可参考表4:


评估的python代码如下:
 1import pandas as pd
 2import math
 3from sklearn.metrics import mean_squared_error
 4import matplotlib.pyplot as plt
 5import tensorflow as tf
 6from sklearn.preprocessing import MinMaxScaler
 7gpus = tf.config.experimental.list_physical_devices('GPU')
 8for gpu in gpus:
 9    tf.config.experimental.set_memory_growth(gpu, True)
10def average(seq, total=0.0):
11  num = 0
12  for item in seq:
13    total += item
14    num += 1
15  return total / num
16
17if __name__ == '__main__':
18
19    CSV_FILE_PATH = 'D:\\comma2k19\\Chunk_03\\99c94dc769b5d96e_2018-05-01--08-13-53.csv'
20    df = pd.read_csv(CSV_FILE_PATH)
21    values = df.to_numpy()
22    times = values[:, -1]
23    distance = values[:, -2]
24    model = tf.keras.models.load_model('lstm.model')
25    test_X = values[:, :3]
26    # 因为训练的时候输入特征是归一化的,所以预测的时候也要将输入特征归一化
27    scaler = MinMaxScaler(feature_range=(0, 1))
28    test_X = scaler.fit_transform(test_X)
29    test_X = test_X.reshape((test_X.shape[0], 1, test_X.shape[1]))
30    # train_len = (int)(0.75 * len(values[:, 0]))
31    # train = values[:train_len, :]
32    # test = values[train_len:, :]
33    test_y = distance
34    yhat = model.predict(test_X)[:, 0]
35    rmse = math.sqrt(mean_squared_error(yhat, test_y))
36    print('Test RMSE: %.3f' % rmse)
37    scores = model.evaluate(test_X, test_y)
38    rmse = math.sqrt(mean_squared_error(yhat, test_y))
39    plt.plot(times, yhat, label='prediction')
40    plt.plot(times, distance, label="ground_truth")
41    plt.title('Comparison between truth and prediction', fontsize=18)
42    plt.xlabel('Boot time (s)', fontsize=18)
43    plt.ylabel('Distance travelled during single timestamp (m) ', fontsize=12)
44    plt.legend()
45    plt.show()
46    min = min((distance - yhat), key=abs)
47    max = max((distance - yhat), key=abs)
48    avr = average(distance-yhat)
49    print('Min:%f' % min)
50    print('Max:%f' % max)
51    print('average:%f' % avr)


7.

使用其他epoch和batch_size训练


我令训练集和测试集分别取自不同的route,来看训练情况是否更好
  • 当batch_size = 50 epoch  = 100时,训练时loss在epoch = 50左右就不动了





重新挑选一个route进行预测,可以看出预测效果还是不错的,误差绝对值的最大最小和平均值分别如下:


由于每一段数据基本都由1200个数据组成,所以我想令batch_size = 1200,这样分段训练,每训练一个segment再调整梯度,于是我令batch_size = 1200 epoch = 300,发现训练速度很快,误差也比较理想。





说明batch_size = 1200  epoch = 300训练效果更好,用非测试集去做预测评估,大部分的误差都不大



这可能是训练集太小导致的,训练集只有10分钟,不足以包含所有情况。模型本身很好,但需要寻找更好的数据集来进行训练。
完整代码已上传到Github,地址https://github.com/Juntu-hub/Prediction-Based-GNSS-Spoofing-Attack-Detection-for-Autonomous-Vehicle.git